WO2021085522A1 - 処理条件推定装置、方法及びプログラム - Google Patents
処理条件推定装置、方法及びプログラム Download PDFInfo
- Publication number
- WO2021085522A1 WO2021085522A1 PCT/JP2020/040589 JP2020040589W WO2021085522A1 WO 2021085522 A1 WO2021085522 A1 WO 2021085522A1 JP 2020040589 W JP2020040589 W JP 2020040589W WO 2021085522 A1 WO2021085522 A1 WO 2021085522A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- processing
- processing condition
- condition estimation
- measurement data
- processing conditions
- Prior art date
Links
- 238000012545 processing Methods 0.000 title claims abstract description 257
- 238000000034 method Methods 0.000 title claims description 74
- 238000005259 measurement Methods 0.000 claims abstract description 53
- 238000013528 artificial neural network Methods 0.000 claims description 29
- 238000005530 etching Methods 0.000 claims description 8
- 239000010409 thin film Substances 0.000 claims description 6
- 239000010408 film Substances 0.000 claims description 5
- 230000009467 reduction Effects 0.000 description 53
- 230000006870 function Effects 0.000 description 49
- 238000004364 calculation method Methods 0.000 description 15
- 238000004519 manufacturing process Methods 0.000 description 14
- 230000008569 process Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 239000004065 semiconductor Substances 0.000 description 9
- 235000012431 wafers Nutrition 0.000 description 7
- 238000013507 mapping Methods 0.000 description 6
- 238000012937 correction Methods 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 238000001228 spectrum Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 3
- 238000001878 scanning electron micrograph Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000002438 flame photometric detection Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03F—PHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
- G03F7/00—Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
- G03F7/70—Microphotolithographic exposure; Apparatus therefor
- G03F7/70483—Information management; Active and passive control; Testing; Wafer monitoring, e.g. pattern monitoring
- G03F7/70491—Information management, e.g. software; Active and passive control, e.g. details of controlling exposure processes or exposure tool monitoring processes
- G03F7/705—Modelling or simulating from physical phenomena up to complete wafer processes or whole workflow in wafer productions
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03F—PHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
- G03F7/00—Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
- G03F7/70—Microphotolithographic exposure; Apparatus therefor
- G03F7/70483—Information management; Active and passive control; Testing; Wafer monitoring, e.g. pattern monitoring
- G03F7/70491—Information management, e.g. software; Active and passive control, e.g. details of controlling exposure processes or exposure tool monitoring processes
- G03F7/70525—Controlling normal operating mode, e.g. matching different apparatus, remote control or prediction of failure
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03F—PHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
- G03F7/00—Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
- G03F7/70—Microphotolithographic exposure; Apparatus therefor
- G03F7/70483—Information management; Active and passive control; Testing; Wafer monitoring, e.g. pattern monitoring
- G03F7/70605—Workpiece metrology
- G03F7/70616—Monitoring the printed patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10056—Microscopic image
- G06T2207/10061—Microscopic image from scanning electron microscope
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30148—Semiconductor; IC; Wafer
Definitions
- An embodiment of the present invention relates to a technique for estimating processing conditions from measurement data of an object processed by a processing apparatus without limiting the shape of the object.
- the processing margin is becoming smaller and smaller as miniaturization occurs, so it is important to confirm that the objects processed by processing equipment such as exposure equipment are processed within a predetermined range. ing.
- the optimum exposure conditions are determined by measuring a pattern shape such as a predetermined resist with a shape measuring device such as a scanning electron microscope (CD-SEM; Critical Measurement-Scanning Electron Microscope). In this case, not only the resist pattern shape but also the pattern shape after etching is measured, and both are confirmed.
- a shape measuring device such as a scanning electron microscope (CD-SEM; Critical Measurement-Scanning Electron Microscope).
- Patent Document 1 discloses a technique for obtaining the focal point of an exposure apparatus and the offset amount of the exposure amount from the deviation amount between the line width of the resist pattern shape and the reference value obtained by CD-SEM or the like.
- the reference of the resist pattern shape is left to the simulation and is fixed. Further, there is a problem that the resist pattern, which is the object, can handle only a fixed shape such as a straight line pattern or a contact hole.
- an object of the present invention is to provide a technique for estimating processing conditions without limiting the shape of an object.
- the first invention is a processing condition estimation device that estimates processing conditions for processing an object, and an input unit for inputting measurement data acquired at a predetermined position of the object.
- a processing condition including an estimation unit that estimates the processing condition for processing the object from the input measurement data based on the processing condition estimation function that inputs the measurement data and outputs the estimated value of the processing condition. It is an estimation device.
- the second invention is a processing condition estimation method for estimating processing conditions for processing an object, in which measurement data acquired at a predetermined position of the object is input, and measurement data is input to estimate processing conditions.
- This is a processing condition estimation method that estimates the processing conditions for processing the object from the input measurement data based on the processing condition estimation function that outputs a value.
- a third invention is a processing condition estimation program that estimates processing conditions for processing an object, in which a step of inputting measurement data acquired at a predetermined position of the object and a process of inputting measurement data are performed.
- This is a processing condition estimation program that causes a computer to execute a step of estimating a processing condition for processing the object from the input measurement data based on a processing condition estimation function that outputs an estimated value of.
- FIG. 1 is a schematic configuration diagram of a semiconductor manufacturing system including a processing condition estimation device according to the present embodiment.
- the semiconductor manufacturing system 100 includes an exposure apparatus 200, a central processing unit processing apparatus 300, and a shape measuring apparatus 400. Each device is connected by a wired or wireless communication network.
- the central processing unit 300 corresponds to the processing condition estimation device according to the present embodiment.
- the semiconductor manufacturing system 100 is an example to which the processing condition estimation device according to the present embodiment is applied.
- the processing condition estimation device according to the present embodiment can be applied to, for example, a mask manufacturing system, an FPD (Flat Panel Display) manufacturing system, a printed circuit board manufacturing system, and the like.
- FPD Full Panel Display
- the exposure apparatus 200 is an exposure apparatus that exposes a pattern formed on a mask to a resist coated on a wafer.
- the exposure apparatus 200 corresponds to a processing apparatus for processing an object according to the present embodiment.
- the shape measuring device 400 is a scanning electron microscope (CD-SEM), and has a three-dimensional shape of a resist pattern formed on a wafer by using an exposure device 200 that exposes a resist applied on the wafer through a mask. Get information.
- the shape measuring device 400 corresponds to a measuring device that measures measurement data according to the present embodiment.
- the object to be measured is not limited to the resist pattern, but may be a pattern after etching, and is not limited to semiconductor manufacturing, but anything that processes the object such as mask manufacturing, FPD manufacturing, and printed circuit board manufacturing. Good.
- the SEM image of the object is used as the measurement data, but the measurement data is not limited to the image of the object, but the measured values such as the line width of the linear pattern and the hole diameter of the contact hole, the optical image, the reflection spectrum, and the like. You may use the data obtained by measuring.
- the central processing unit processing unit 300 is a processing condition estimation device that estimates the processing conditions for processing an object, and includes functional blocks such as an input unit, a feature amount calculation unit, and an estimation unit. ..
- the input unit inputs the measurement data acquired at a predetermined position of the object.
- the feature amount calculation unit calculates the feature amount from the input measurement data of the object.
- the estimation unit inputs at least one of the measurement data and the feature amount and outputs the estimated value of the processing condition. Based on the processing condition estimation function, the estimation unit uses at least one of the input measurement data and the feature amount of the input object to output the estimated value of the processing condition. Estimate the processing conditions that processed.
- the functions of the feature amount calculation unit and the estimation unit have been described separately, but it is not necessary to clearly separate the functions, and the feature amount calculation unit and the estimation unit may be implemented together as the estimation unit.
- the estimation unit inputs the measurement data and outputs the estimated value of the processing condition. Based on the processing condition estimation function, the processing condition that processed the object from the input measurement data of the object. To estimate.
- the processing condition estimation device 300 may further include a display unit that displays the estimated processing conditions.
- the processing condition estimation device 300 is a functional block and is not limited to being implemented in hardware, but may be implemented in a computer as software such as a program, and its implementation form is not limited. For example, it may be installed and implemented on a dedicated server connected to a client terminal such as a personal computer and a wired or wireless communication line (Internet line, etc.), or it may be implemented using a so-called cloud service. Good.
- FIG. 2 is a flowchart relating to (a) a processing condition estimation function creation method and (b) a processing condition estimation method according to the present embodiment.
- FIG. 2A is a flowchart of a processing condition estimation function creation method.
- the processing condition estimation function is a function that estimates the processing condition for processing the object from the measurement data of the object acquired by the measuring device, and the processing condition for which the input is the measurement data of the object and the output is the processing of the object. It is a function that is an estimate of.
- the processing conditions (focal position and exposure amount) obtained by processing the object with the exposure apparatus are estimated from the image measured with the scanning electron microscope.
- FIG. 3 is a diagram showing an example of image input according to the present embodiment.
- the horizontal axis of this figure represents the focal position of the exposure apparatus 200, and the vertical axis represents the exposure amount. Then, a plurality of images measured in advance at the ratio shown in the figure are displayed.
- the number of focal positions, exposure amounts, etc. is referred to as the number of processing condition types.
- the number of processing condition types is two (focus position and exposure amount).
- the exposure amount condition is changed in 3 ways (-8%, ⁇ 0%, + 8%), and the focal position condition is changed in 5 ways (-60 nm, -30 nm, ⁇ 0 nm, + 30 nm, + 60 nm).
- the total number of processing conditions is 15.
- the image contains many types of patterns and patterns that are sensitive to processing conditions.
- the image under one processing condition may be a plurality of images acquired at a plurality of locations of the object instead of one image.
- the processing conditions are not limited to the two types of the focal position and the exposure amount, and may be the film thickness of the object or the thin film formed on the object, the etching conditions, and the like. Further, when the processing conditions are conditions that cannot be changed in the wafer such as the film thickness of the thin film formed on the object, the etching processing time, the etching gas flow rate, and the etching RF power, a plurality of wafers are processed under different processing conditions. Images for each processing condition may be acquired from each wafer.
- the feature amount of the input image is calculated.
- FIG. 4 is a diagram showing an example for calculating the feature amount according to the present embodiment.
- the line width of the solid line marked on the actual pattern image is measured as a feature amount.
- FIG. 4B is a diagram in which only the border of the pattern image is displayed in order to display the line width to be measured in an easy-to-understand manner.
- the measured line width is covered with an elliptical shape.
- the measured line width is an example, and is not limited to this, and may be the edge position, edge inclination, curvature, area, or the like of the pattern.
- each pixel value (including all pixel values) of the image input in S110 or a value calculated from each pixel value may be used.
- the input unit sets a specific part of the input image data (for example, a pattern area or an area where the pattern edge is changed), and the size of the specific part is set.
- W ⁇ H pixel values are output as measurement data. This means that the number of input dimensions of the first dimension reduction performed later is W ⁇ H dimension.
- the pixel values of several pixels included in the specific portion may be output as measurement data.
- the specific portion may be set to include an area that changes depending on the processing conditions. It is possible to reduce the amount of calculation processing in the feature amount calculation unit and the estimation unit by limiting the pixels of the entire input image data to the pixels of a specific part.
- S130 is a learning step of the first dimension reduction method.
- the number of dimensions of the feature amount obtained in S120 (17 dimensions because the line width is 17 places in this embodiment) is the number of dimensions of the number of processing condition types that processed the object (in this embodiment, 2 of the focal position and the exposure amount). Since it is a type, the dimension is reduced to 3 dimensions, which is intermediate with (2 dimensions), and a first projection function that performs such a first dimension reduction is learned and generated.
- the number is reduced to three dimensions by adding one to the number of processing condition types, but the number is not limited to this, and may be between the number of dimensions of the feature quantity and the number of dimensions of the processing condition type.
- the LLE Longcally Linear Embedding
- this processing condition type is the processing condition estimated by the processing condition estimation device according to the present embodiment.
- FIG. 5 is a diagram for explaining the first dimension reduction method according to the present embodiment.
- the result after the first dimension reduction is displayed on the three-dimensional coordinates. That is, it means that the 17-dimensional learning data is projected on the curved surface on the third dimension.
- each axis has no physical meaning.
- the result of the first dimension reduction is insufficient (when the interval after the dimension reduction between the processing conditions is not sufficient)
- the addition of the object measurement points, the increase / decrease of the feature amount, and the change of the dimension reduction conditions / methods. May be done.
- the object measurement points may be increased in number by complementing the feature amount.
- an evaluation value for evaluating the result of the first dimension reduction may be output.
- the interval between the processing conditions after the dimension reduction may be corrected by the interval between the processing conditions before the dimension reduction, and the minimum value thereof may be output as the evaluation value of the dimension reduction.
- S140 is a learning step of the second dimension reduction method.
- the result of dimension reduction in S130 (first dimension reduction method) (three dimensions in the present embodiment) is reduced to the number of dimensions of the processing condition type (two dimensions in the present embodiment), and such a second dimension is reduced.
- a second projection function that performs dimension reduction is learned and generated.
- a dimension reduction method an LLE (Locally Linear Embedding) method or the like is used.
- the object measurement points may be increased in number by complementing the feature amount.
- FIG. 6 is a diagram for explaining a second dimension reduction method according to the present embodiment.
- FIG. 6A shows the result after the second dimension reduction on the two-dimensional coordinates.
- Each axis has no physical meaning because it is the second projection function that makes 3D into 2D.
- FIG. 6B illustrates a function that maps the measurement data of an object processed under different processing conditions projected onto the two-dimensional coordinates after the second dimension reduction to the two-dimensional coordinates of the processed focal position and exposure amount. It is a figure for doing.
- the mapping function maps the result of dimension reduction to the same dimension as the number of processing condition types to the actual processing condition value. Specifically, a function for converting the two-dimensional coordinate values obtained in S140 into the processed focal position and exposure amount is obtained. As a result, the focal position and the exposure amount can be calculated from the converted values.
- the processing condition estimation function for estimating the processing condition may be created by another machine learning method, not limited to the dimension reduction method and the mapping method described above. Alternatively, it may be created by a neural network including deep learning.
- the processing condition estimation function is used within the processing condition range where all the features can be calculated.
- a plurality of processing condition estimation functions may be created, such as creating a processing condition estimation function in the entire processing condition range except for features that cannot be calculated. This is because the processing condition estimation is performed with a small number of features when the processing conditions are significantly deviated, and the processing condition estimation is performed with a large number of features when the processing conditions are close to the central condition. As described above, there may be a plurality of combinations of the feature amount and the processing condition estimation function.
- FIG. 2B is a flowchart of the processing condition estimation method.
- the input unit of the processing condition estimation device 300 inputs an image of the object whose processing condition should be actually estimated.
- the input image is an image acquired at a predetermined position of the object by using the same method as the image input in S110.
- the predetermined position of the object is not limited to the same coordinates in the object, but includes a position having a similar structure to the object. For example, if there is a pattern, the position of the same pattern is included, and if there is no pattern, the position of the same film composition is included.
- the feature amount calculation unit of the processing condition estimation device 300 calculates the feature amount of the input image. Similar to S120, in this embodiment, 17 feature quantities are calculated.
- the estimation unit of the processing condition estimation device 300 reduces the dimensions of S230 and S240.
- the feature amount calculated in S220 (17 dimensions in this embodiment) is set between the number of dimensions of the feature amount and the number of processing condition types as in S130.
- the first dimension reduction is performed in a certain dimension (three dimensions in the present embodiment). The result of performing the first dimension reduction is one point on the three-dimensional coordinates of FIG.
- the estimation unit of the processing condition estimation device 300 uses the second projection function learned in S140 to reduce the dimensions in S230 (first dimension reduction method), and the result is the processing condition type (in this embodiment).
- the second dimension is reduced to two dimensions (two types of focal position and exposure amount).
- the result after the second dimension reduction is one point on the two-dimensional coordinates of FIG. 6A.
- the estimation unit of the processing condition estimation device 300 maps the result after the second dimension reduction to the two-dimensional coordinates of the focal position and the exposure amount by the mapping function obtained in S150.
- the result of mapping is one point of the two-dimensional coordinates in FIG. 6 (b). In this way, according to the present embodiment, it is possible to calculate the estimated value of the processing conditions of the focal position and the exposure amount.
- the processing condition estimation value may be calculated by integrating the results of each.
- the accuracy of the processing condition estimated value can be calculated between S230 (first dimension reduction method) and S240 (second dimension reduction method).
- the accuracy is a value for evaluating the accuracy of the estimated processing conditions. For example, if the difference between the learning data and the data for which the processing conditions are estimated is large, it indicates that the estimated processing conditions may have a large error.
- S230 first dimension reduction method
- the distance between the point reduced in three dimensions and the curved surface obtained from the learning image as shown in FIG. 5 is output as the accuracy of the estimated value. In this case, the closer the accuracy (for example, Error Rate) is to 0, the higher the accuracy (that is, the higher the accuracy).
- the accuracy A is expressed by the equation (1).
- ⁇ j is a correction coefficient (constant).
- the feature amount obtained from the learning image may be complemented and the number of processing conditions may be increased to perform high accuracy.
- the accuracy A is expressed by the equation (2).
- ⁇ j is a correction coefficient (constant).
- the feature amount obtained with high accuracy by complementation may be used.
- a pattern-shaped image is used as the measurement data of the object, but other than the image can be used as the measurement data.
- the processing conditions processing time, gas flow rate, temperature, pressure, etc.
- the processing conditions processing time, gas flow rate, temperature, pressure, etc.
- the processing conditions can be estimated without limiting the shape of the object.
- FIG. 7 is a flowchart relating to (a) a processing condition estimation function creation method and (b) a processing condition estimation method using a neural network according to another embodiment.
- FIG. 7A is a flowchart of a processing condition estimation function creation method using a neural network. Since the processing condition estimation function and the like are described in FIG. 2 and the like, duplicate description will be omitted.
- S310 as in S110 of FIG. 2, an image of a predetermined position of an object created in advance under different processing conditions is input. Also in the case of S310, an example of image input described with reference to FIG. 3 is used.
- the feature amount of the input image is calculated.
- an example for calculating the feature amount described with reference to FIG. 4 is used.
- S330 is a learning step of a method for reducing the dimension of features.
- the number of dimensions of the feature amount obtained in S320 (17 dimensions because the line width is 17 in the case of FIG. 4) is the number of dimensions of the number of processing condition types for processing the object (in the case of FIG. 3, the focal position and the exposure amount). Since there are two types, the dimension is reduced to 2 dimensions), and a projection function that performs such dimension reduction is learned and generated.
- a neural network or the like is used as a dimension reduction method. Note that this processing condition type is the processing condition estimated by the processing condition estimation device according to the present embodiment.
- FIG. 8 is a diagram for explaining an example of a configuration of a neural network that performs dimension reduction according to another embodiment.
- there are three hidden layers and the nodes of the first and second layers are 32, and the nodes of the third layer are 16.
- FIG. 8 is a processing condition estimation function that inputs 17 measurement data (here, 17 image features) and outputs estimated values of 2 processing conditions (here, focus position and exposure amount). Is shown as an example of constructing a neural network.
- x 0 and z k, 0 are constants 1.
- the nodes of each layer are calculated by the formulas (3) to (5).
- Wi and jk are real numbers, i is an input number, j is a node number of each layer, and k is a hidden layer number.
- f i and j are called activation functions, and sigmoid functions and hyperbolic tangent functions are used.
- Learning is to optimize W i, the value of j k so that the processing conditions are output when the input feature values.
- the gradient descent method, the quasi-Newton method, the momentum method, the Adam method, the LBFGS method (Limited-memory BFGS), the SGD (Stochastic Gradient Descent) method and the like are used.
- the feature amount to be input may be normalized so as to be within a predetermined range as a preprocessing before input. When the process processing condition of the output value is normalized, the process of returning to the original process condition is performed as post-processing.
- the feature amount extracted by the feature amount extraction unit is input to the estimation unit, but when the measurement data (here, image data) is directly input to the estimation unit instead of the feature amount extracted by the feature amount extraction unit.
- the measurement data here, image data
- the estimation unit instead of the feature amount extracted by the feature amount extraction unit.
- CNN Convolutional Neural Network
- S340 is a step of obtaining a feature amount estimation function for obtaining the feature amount input of S330 from the process processing conditions.
- a case where the feature amount is estimated by using a neural network as in S330 will be described.
- FIG. 9 is a diagram for explaining an example of a configuration of a neural network for estimating a feature amount according to another embodiment.
- the nodes of the first and second layers are composed of eight, and the nodes of the third layer are composed of four.
- y i is the process processing condition
- x i is the estimated value of the feature quantity.
- the number of features is 17, and the process conditions are two, the focal position and the exposure amount, the number of neural networks shown in FIG. 9 is 17.
- Each parameter is the same as S330, and the learning method is the same.
- the feature amount estimation function is constructed by a neural network, but other interpolation methods such as the Bi-Linear method and the Bi-Cubic method may be used. Note that S340 may be omitted when accuracy calculation, learning result evaluation, or the like is not performed.
- the accuracy of the processing condition estimation function obtained in S330 and the feature amount estimation function obtained in S340 may be improved by repeatedly re-learning S330 using the feature amount estimated in S340.
- FIG. 10 and 11 are graphs displaying values or errors estimated from the focal position and the exposure amount.
- FIG. 10 shows the case where there is no re-learning
- FIG. 11 shows the case where there is re-learning.
- the coordinate axes of each graph are the focal position on the x-axis, the exposure amount on the y-axis, and the estimated value or error on the z-axis.
- the graph of FIG. 10A is a plot of the focal position on the x-axis, the exposure amount on the y-axis, and the estimated focal position on the z-axis.
- FIG. 10B is a plot of the focal position on the x-axis, the exposure amount on the y-axis, and the estimated exposure amount on the z-axis.
- FIG. 10C is a plot of the focal position on the x-axis, the exposure amount on the y-axis, and the focal position estimation error on the z-axis.
- the focal position estimation error is an absolute value of the difference between the focal position and the focal position estimated value.
- FIG. 10D plots the focal position on the x-axis, the exposure amount on the y-axis, and the exposure amount estimation error on the z-axis.
- the exposure amount estimation error is an absolute value of the difference between the exposure amount and the exposure amount estimation value.
- the triangle marks indicate the focal position estimated value or the exposure amount estimated value estimated by the neural network learned in S330 from the feature amount extracted from the image used for learning.
- the black circles are the focal position estimated value or the exposure amount estimated value estimated by the neural network learned in S330 from the feature amount estimated by the neural network learned in S340 from the exposure amount and the focal position.
- the focal position estimation error or the exposure amount estimation error (triangle) estimated from the features used in the learning from FIGS. 10 (c) and 10 (d) is small, and the features estimated from the exposure amount and the estimated value by the neural network learned in S340. It can be seen from the quantity that the focal position estimation error or the exposure amount estimation error (black circle) estimated by the neural network learned in S330 is large.
- the plots are divided for each estimation processing condition as shown in FIGS. 10 (c) and 10 (d), but each error may be multiplied by a correction coefficient and summed to form a single plot.
- the estimation accuracy is high for the exposure amount and the focal position used for learning in S330, but the estimation accuracy is poor for other than that.
- the learning result performed in S330 can be evaluated.
- the learning results are evaluated using images of the target positions of a large number of samples with different processing conditions, but for that purpose, a large number of samples must be prepared and measured.
- FIGS. 11 (a), 11 (b), (c), and (d) are the results estimated by the retrained neural network. Similar to FIGS. 10 (a), (b), (c), and (d), the x-axis is the focal position, the y-axis is the exposure amount, and the z-axis is the focal position estimated value, the exposure amount estimated value, and the focal position estimation, respectively. It is an error and an exposure amount estimation error.
- the focal position estimation error and the exposure amount estimation error (black circles) estimated from the feature amount estimated in S340 are smaller than those before relearning (FIG. 10), and the estimation accuracy is improved. In this way, the estimation accuracy can be improved by re-learning S330 based on the feature amount estimated in S340.
- the neural network configuration can be changed, the type of feature amount and extraction pattern can be changed, images with different processing conditions can be added to the training image, and images at different positions with the same processing conditions can be added. You may add it.
- neural network used in S330 and S340 is not limited to the one shown here, and the number of layers, the number of nodes, the activation function, etc. may be changed.
- FIG. 7B is a flowchart of the processing condition estimation method.
- the input unit of the processing condition estimation device 300 inputs an image of an object whose processing condition should be actually estimated.
- the input image is an image acquired at a predetermined position of the object by using the same method as the image input in S310.
- the predetermined position of the object is not limited to the same coordinates in the object, but includes a position having a similar structure to the object. For example, if there is a pattern, the position of the same shape pattern is included, and if there is no pattern, the position of the same film configuration is included.
- the feature amount calculation unit of the processing condition estimation device 300 calculates the feature amount of the input image. Similar to S320, in this embodiment, 17 feature quantities are calculated.
- the estimation unit of the processing condition estimation device 300 reduces the dimension of S430.
- S430 using the neural network learned in S330 (learned neural network), the feature quantity (17 dimensions in this case) calculated in S420 is converted into the number of processing condition types (here, 17 dimensions) in the same manner as in S330. Dimension reduction is performed in 2 dimensions). In this way, it is possible to calculate the estimated value of the processing conditions of the focal position and the exposure amount.
- the normalized value When a normalized processing condition value is used as the output value of the neural network, the normalized value may be returned to the processing condition value as post-processing. Further, when there are combinations of a plurality of feature quantities and the processing condition estimation function, the processing condition estimation value may be calculated by integrating the results of each.
- the accuracy of the processing condition estimated value can be calculated by S440 and S450.
- the accuracy is a value for evaluating the accuracy of the estimated processing conditions. For example, if the difference between the learning data and the data for which the processing conditions are estimated is large, it indicates that the estimated processing conditions may have a large error.
- each feature amount is estimated using the neural network (learned neural network) learned in S340 by inputting the processing condition estimated value obtained in S430.
- the sum of squares of the difference between each feature amount estimated in S440 and the feature amount obtained from the input image calculated in S420 is output as the accuracy. In this case, the closer the accuracy is to 0, the higher the accuracy.
- the pattern-shaped SEM image was used as the measurement data of the object, but other than the SEM image can be used as the measurement data.
- the processing conditions processing time, gas flow rate, temperature, pressure, etc.
- the accuracy is not limited to the above, and may be obtained as long as it is a value for evaluating the processing condition estimation accuracy.
- the processing conditions can be estimated without limiting the shape of the object.
- the present invention is not limited to the description of the embodiment of the above invention. Various modifications are also included in the present invention as long as those skilled in the art can easily conceive without departing from the description of the scope of claims.
- the input unit may perform filter processing such as noise removal on the input image data.
- the measurement data of the same location of the object created under different processing conditions may be acquired, and the feature amount may be extracted from this image.
- the present invention is not limited to manifold learning such as LLE and neural networks, and other machine learning methods may be used.
- the relationship between the extracted features and the processing conditions may be analyzed and a relationship rule may be generated.
- the processing condition for performing the conditional swing may be only one of the focal position and the exposure amount of the exposure process.
- the processing conditions for swinging the conditions may be any one or a combination of processing time such as etching and thin film growth, RF power, processing temperature, processing pressure, and gas flow rate.
- the feature amount is either pixel value, line width, space width, pattern pitch, curvature, edge position, inclination, edge width, pattern area, space area, reflected light spectrum, etc. Or it may be a combination.
- processing condition estimation device is applicable not only to semiconductor wafers but also to masks (photomasks, EUV masks, etc.), FPDs, interposers, and TSVs (Through-Silicon Vias) printed circuit boards.
- Exposure device 100 Semiconductor manufacturing system 200 Exposure device 300 Central processing unit (processing condition estimation device) 400 Shape measuring device (CD-SEM)
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Exposure And Positioning Against Photoresist Photosensitive Materials (AREA)
- Exposure Of Semiconductors, Excluding Electron Or Ion Beam Exposure (AREA)
Abstract
対象物の形状などを制限することなく、処理条件を推定する技術を提供する。 対象物を処理した処理条件を推定する処理条件推定装置であって、前記対象物の所定の位置で取得した測定データを入力する入力部と、測定データを入力して処理条件の推定値を出力する処理条件推定関数に基づいて、前記入力された測定データから、前記対象物を処理した処理条件を推定する推定部と、を備える処理条件推定装置。
Description
本発明の実施形態は、処理装置が処理した対象物の測定データから、対象物の形状などを制限することなく、処理条件を推定する技術に関する。
半導体デバイス製造では、微細化に伴い処理マージンがますます小さくなっているため、露光装置などの処理装置が処理した対象物が所定の範囲内で処理されていることを確認することが重要となっている。
一般的には、最適な露光条件は、走査型電子顕微鏡(CD-SEM;Critical Dimension-Scanning Electron Microscope)などの形状測定装置で所定のレジストなどのパターン形状を測定して決定される。この場合、レジストパターン形状だけでなく、エッチング後のパターン形状の測定も行い、両方の確認が行われる。
特許文献1は、CD-SEMなどで求めた、レジストパターン形状の線幅と基準値とのずれ量から、露光装置の焦点及び露光量のオフセット量を求める技術を開示している。
しかしながら、レジストパターン形状のどこを基準とするかは、シミュレーションに委ねられ、固定されている。また、対象物とされるレジストパターンも直線パターンやコンタクトホールなど決められた形状しか扱えないという問題がある。
本発明は、このような課題に着目して鋭意研究され完成されたものであり、その目的は、対象物の形状などを制限することなく、処理条件を推定する技術を提供することにある。
上記課題を解決するために、第1の発明は、対象物を処理した処理条件を推定する処理条件推定装置であって、前記対象物の所定の位置で取得した測定データを入力する入力部と、測定データを入力して処理条件の推定値を出力する処理条件推定関数に基づいて、前記入力された測定データから、前記対象物を処理した処理条件を推定する推定部と、を備える処理条件推定装置である。
第2の発明は、対象物を処理した処理条件を推定する処理条件推定方法であって、前記対象物の所定の位置で取得した測定データを入力し、測定データを入力して処理条件の推定値を出力する処理条件推定関数に基づいて、前記入力された測定データから、前記対象物を処理した処理条件を推定する処理条件推定方法である。
第3の発明は、対象物を処理した処理条件を推定する処理条件推定プログラムであって、前記対象物の所定の位置で取得した測定データを入力するステップと、測定データを入力して処理条件の推定値を出力する処理条件推定関数に基づいて、前記入力された測定データから、前記対象物を処理した処理条件を推定するステップと、をコンピュータに実行させる処理条件推定プログラムである。
本発明によれば、対象物の形状などを制限することなく、処理条件を推定する技術を提供することができる。
図面を参照しながら本発明の実施の形態を説明する。ここで、各図において共通する部分には同一の符号を付し、重複した説明は省略する。
[A.本実施形態の概要]
図1は、本実施形態に係る処理条件推定装置を含む半導体製造システムの概略構成図である。半導体製造システム100は、露光装置200と、中央演算処理装置300と、形状測定装置400を備える。各装置は有線又は無線の通信ネットワークで接続されている。中央演算処理装置300が、本実施形態に係る処理条件推定装置に相当する。なお、半導体製造システム100は、本実施形態に係る処理条件推定装置が適用される一例である。本実施形態に係る処理条件推定装置は、例えば、マスク製造システムやFPD(Flat Panel Display)製造システムやプリント基板製造システムなどにも適用可能である。
図1は、本実施形態に係る処理条件推定装置を含む半導体製造システムの概略構成図である。半導体製造システム100は、露光装置200と、中央演算処理装置300と、形状測定装置400を備える。各装置は有線又は無線の通信ネットワークで接続されている。中央演算処理装置300が、本実施形態に係る処理条件推定装置に相当する。なお、半導体製造システム100は、本実施形態に係る処理条件推定装置が適用される一例である。本実施形態に係る処理条件推定装置は、例えば、マスク製造システムやFPD(Flat Panel Display)製造システムやプリント基板製造システムなどにも適用可能である。
露光装置200は、マスク上に形成されているパターンをウェハ上に塗布されたレジストに露光する露光装置である。露光装置200が、本実施形態に係る対象物を処理する処理装置に相当する。
形状測定装置400は、走査型電子顕微鏡(CD-SEM)であり、マスクを介してウェハ上に塗布されたレジストを露光する露光装置200を用いてウェハ上に形成されたレジストパターンの立体形状の情報を取得する。形状測定装置400が、本実施形態に係る測定データを測定する測定装置に相当する。ここで、測定する対象物はレジストパターンとは限らず、エッチング後のパターンなどでもよいし、半導体製造に限らずマスク製造やFPD製造やプリント基板製造など対象物に処理を行うものであれば何でもよい。
ここでは、測定データとして対象物のSEM画像を用いるが、測定データとしては対象物の画像に限らず直線パターンの線幅やコンタクトホールの穴径などの測定値や光学画像や反射スペクトルなど対象物を測定して得られるデータを用いてもよい。
中央演算処理装置(以下「処理条件推定装置」という)300は、対象物を処理した処理条件を推定する処理条件推定装置であって、入力部、特徴量算出部、推定部という機能ブロックを備える。入力部は、対象物の所定の位置で取得した測定データを入力する。特徴量算出部は、入力された対象物の測定データから特徴量を算出する。推定部は、測定データ及び特徴量の少なくとも一方を入力して処理条件の推定値を出力する処理条件推定関数に基づいて、入力された対象物の測定データ及び特徴量の少なくとも一方から、対象物を処理した処理条件を推定する。ここで、特徴量算出部と推定部の機能を分けて説明したが、機能を明確に分離する必要はなく、特徴量算出部と推定部を合わせて推定部として実装してもよい。
合せて実装する場合は、推定部は、測定データを入力して処理条件の推定値を出力する処理条件推定関数に基づいて、入力された対象物の測定データから、対象物を処理した処理条件を推定する。なお、処理条件推定装置300は、推定した処理条件を表示する表示部をさらに備えてもよい。
処理条件推定装置300は機能ブロックであり、ハードウェアでの実装に限られず、プログラム等のソフトウェアとしてコンピュータに実装されていてもよく、その実装形態は限定されない。例えば、パーソナルコンピュータ等のクライアント端末と有線又は無線の通信回線(インターネット回線など)に接続された専用サーバにインストールされて実装されていてもよいし、いわゆるクラウドサービスを利用して実装されていてもよい。
[B.処理条件推定方法]
図2は、本実施形態に係る(a)処理条件推定関数作成方法及び(b)処理条件推定方法に関するフローチャートである。
図2は、本実施形態に係る(a)処理条件推定関数作成方法及び(b)処理条件推定方法に関するフローチャートである。
(b1.処理条件推定関数作成方法のフローチャートの説明)
図2(a)は、処理条件推定関数作成方法のフローチャートである。ここで、処理条件推定関数とは、測定装置で取得した対象物の測定データから対象物を処理した処理条件を推定する関数、入力が対象物の測定データで出力が対象物を処理した処理条件の推定値である関数のことである。本実施形態では、対象物を露光装置で処理した処理条件(焦点位置と露光量)を走査型電子顕微鏡で測定した画像から推定している。
図2(a)は、処理条件推定関数作成方法のフローチャートである。ここで、処理条件推定関数とは、測定装置で取得した対象物の測定データから対象物を処理した処理条件を推定する関数、入力が対象物の測定データで出力が対象物を処理した処理条件の推定値である関数のことである。本実施形態では、対象物を露光装置で処理した処理条件(焦点位置と露光量)を走査型電子顕微鏡で測定した画像から推定している。
S110では、異なる処理条件により予め作成された対象物の所定の位置の画像を入力する。
図3は、本実施形態に係る画像入力の一例を示す図である。この図の横軸は、露光装置200の焦点位置を表し、縦軸は露光量を表す。そして、図に示す割合で予め測定した複数の画像が表示されている。ここで、焦点位置や露光量などの数を処理条件種類数という。図3の場合、処理条件種類数は2つ(焦点位置と露光量)である。また、露光量の条件を3通り(-8%、±0%、+8%)に振り、焦点位置の条件を5通り(-60nm、-30nm、±0nm、+30nm、+60nm)に振っているため、全体の処理条件数は15になる。ここで、画像には多種類のパターンや処理条件に敏感なパターンが多く含まれていることが望ましい。また、1処理条件の画像は、1枚ではなく対象物の複数箇所で取得した複数画像でもよい。
また、処理条件は、焦点位置と露光量の2種類に限られず、対象物の、または、対象物上に形成された薄膜の膜厚、エッチング条件などでもよい。また、処理条件が対象物上に形成された薄膜の膜厚やエッチング処理時間やエッチングガス流量やエッチングRFパワーなどウェハ内で変えられない条件である場合、複数のウェハを異なる処理条件で処理しそれぞれの処理条件に対する画像をそれぞれのウェハから取得してもよい。
S120では、入力した画像の特徴量を算出する。
図4は、本実施形態に係る特徴量を算出するための一例を示す図である。図4(a)は実際のパターン画像に印した実線の線幅を特徴量として測定する。この実線の部分は17個あり、17個の線幅を特徴量として算出したことになる。図4(b)は、測定する線幅をわかりやすく表示するために、パターン画像の枠線だけを表示した図である。測定した線幅の部分を楕円形状で覆っている。ここで、測定した線幅は一例であり、これに限定されず、パターンのエッジ位置やエッジ傾斜や曲率や面積などでもよい。また、特徴量としてS110で入力した画像の各画素値(全画素値を含む)や各画素値から算出される値を用いてもよい。例えば、画像の特定部分の画素値を特徴量とする場合は、入力部は入力した画像データの特定部分(例えば、パターン領域やパターンエッジが変化している領域)を設定し、特定部分の大きさが幅W画素、高さH画素の矩形領域の場合はW×H個の画素値を測定データとして出力する。これは、後で行う第1の次元削減の入力次元数がW×H次元であることを意味する。また、特定部分の大きさが矩形ではない領域の場合は、特定部分に含まれる画素数個の画素値を測定データとして出力してもよい。このような場合、特定部分が、処理条件に依存して変化する領域を含むように設定してもよい。入力した画像データ全体の画素を用いるのではなく、特定部分の画素に限定することによって、特徴量算出部や推定部での計算処理量を低減することが可能である。
S130は、第1の次元削減方法の学習ステップである。S120で求めた特徴量の次元数(本実施形態では17か所の線幅なので17次元)を、対象物を処理した処理条件種類数の次元数(本実施形態では焦点位置と露光量の2種類なので2次元)との中間である3次元にまで次元削減し、このような第1の次元削減を行う第1の射影関数を学習生成する。ここでは、処理条件種類数に1加えた3次元に削減したが、これに限られず特徴量の次元数と処理条件種類の次元数の間であればよい。次元削減方法として、ここでは多様体学習法の一つであるLLE(Locally Linear Embedding)法などを用いる。なお、この処理条件種類が、本実施形態に係る処理条件推定装置が推定する処理条件である。
図5は、本実施形態に係る第1の次元削減方法を説明するための図である。第1の次元削減後の結果を3次元座標上に表示したものである。すなわち、17次元の学習データが3次元上の曲面に投影されていることを意味する。また、17次元を3次元にする第1の射影関数のため、各軸には物理的な意味は無い。ここで、第1の次元削減の結果が不十分な場合(処理条件間の次元削減後間隔が十分でない場合)は、対象物測定点の追加や特徴量の増減や次元削減条件・方法の変更を行ってもよい。また、対象物測定点は特徴量を補完して点数を増加させてもよい。
ここで、第1の次元削減の結果を評価する評価値を出力してもよい。例えば、次元削減後の各処理条件間の間隔を次元削減前の各処理条件間の間隔で補正して、その最小値を次元削減の評価値として出力してもよい。
S140は、第2の次元削減方法の学習ステップである。S130(第1の次元削減方法)で次元削減した結果(本実施形態では3次元)を、処理条件種類の次元数(本実施形態では2次元)にまで次元削減し、このような第2の次元削減を行う第2の射影関数を学習生成する。ここでは、次元削減方法として、LLE(Locally Linear Embedding)法などを用いる。ここで、第2の次元削減の結果が不十分な場合(処理条件間の次元削減後間隔が十分でない場合)は、対象物測定点の追加や特徴量の増減や次元削減条件・方法の変更を行ってもよい。また、対象物測定点は特徴量を補完して点数を増加させてもよい。
図6は、本実施形態に係る第2の次元削減方法を説明するための図である。図6(a)は第2の次元削減後の結果を2次元座標上に表示したものである。3次元を2次元にする第2の射影関数のため、各軸には物理的な意味は無い。
S150では、マッピング関数を算出する。図6(b)は、第2の次元削減後の2次元座標に投影した異なる処理条件で処理した対象物の測定データを、処理した焦点位置と露光量の2次元座標にマッピングする関数を説明するための図である。
マッピング関数は、処理条件種類数と同じ次元まで次元削減した結果を実際の処理条件値にマッピングする。具体的には、S140で求めた2次元座標値を処理した焦点位置と露光量に変換する関数を求める。これによって、変換後の値から焦点位置と露光量を算出することができる。
S130及びS140の学習ステップとS150のマッピング関数算出では、上述した次元削減方法やマッピング方法に限らず、他の機械学習法によって、処理条件を推定するための処理条件推定関数を作成してもよいし、また、ディープ・ラーニングを含むニューラルネットワークによって作成してもよい。
また、一部の特徴量を算出できない処理条件が存在する場合(例えば、パターン欠損や隣接パターンと結合している場合など)、全ての特徴量を算出可能な処理条件範囲で処理条件推定関数を作成し、算出できない特徴量を除いて全ての処理条件範囲で処理条件推定関数を作成するなど、複数の処理条件推定関数を作成してもよい。これは、処理条件が大きく外れている場合は少ない特徴量で処理条件推定を行い、処理条件が中心条件に近い場合は多くの特徴量でより正確な処理条件推定を行うためである。このように特徴量と処理条件推定関数との組合せは複数でもよい。
(b2.処理条件推定方法のフローチャートの説明)
図2(b)は、処理条件推定方法のフローチャートである。
図2(b)は、処理条件推定方法のフローチャートである。
S210では、S110と同様に、処理条件推定装置300の入力部が、実際に処理条件を推定すべき対象物の画像を入力する。ここで、入力される画像は、S110で入力した画像と同様の方法を用いて、対象物の所定の位置で取得した画像である。対象物の所定の位置とは対象物内の同一座標とは限らず対象物の同様な構造を有する位置を含む。例えば、パターンがある場合は同じパターンの位置、パターンがない場合は同じ膜構成の位置を含む。
S220では、処理条件推定装置300の特徴量算出部が、入力した画像の特徴量を算出する。S120と同様に、本実施形態では17個の特徴量を算出する。
処理条件推定装置300の推定部が、S230及びS240の次元削減を行う。S230では、S130で学習した第1の射影関数を用いて、S220で算出した特徴量(本実施形態では、17次元)を、S130と同様に特徴量の次元数と処理条件種類数の中間である次元(本実施形態では、3次元)に第1の次元削減を行う。第1の次元削減を行った結果は図5の3次元座標上の1点となる。
S240では、処理条件推定装置300の推定部が、S140で学習した第2の射影関数を用いて、S230(第1の次元削減方法)で次元削減した結果を、処理条件種類(本実施形態では焦点位置と露光量の2種類)の2次元にまで第2の次元削減を行う。第2の次元削減後の結果は、図6(a)の2次元座標上の1点となる。
S250では、処理条件推定装置300の推定部が、S150で求めたマッピング関数によって、第2の次元削減後の結果を焦点位置と露光量の2次元座標にマッピングする。マッピングした結果は図6(b)の2次元座標の1点となる。このようにして、本実施形態によれば、焦点位置と露光量の処理条件の推定値を算出することができる。
複数の特徴量と処理条件推定関数との組合せがある場合は、それぞれの結果を総合して処理条件推定値を算出してもよい。
また、本実施形態では、S230(第1の次元削減方法)とS240(第2の次元削減方法)の間に、処理条件推定値の確度を算出することができる。確度とは推定された処理条件の正確性を評価する値である。例えば、学習データと処理条件を推定したデータとの違いで、学習データとの違いが大きければ、推定した処理条件は誤差が大きい可能性があることを示している。これは、S230(第1の次元削減方法)が、特徴量の次元数と処理条件種類の次元数との中間の次元数に設定しているために、処理条件推定値の確度を算出することができる。例えば、S230(第1の次元削減方法)の後に、図5のように3次元に次元削減された点と学習画像から求められた曲面との距離を推定値の確度として出力する。この場合、確度(例えばError Rate)は0に近いほど確度が高い(すなわち、正確性が高くなる)ことになる。
(b3.確度算出方法1:次元削減を2段階で行う場合)
図2(b)で説明した2段階の次元削減(S230、S240)の場合の、確度算出(S260)方法について説明する。i番目の学習画像から求めた第1の次元削減(S230)の結果をPi,jとする。ここでは、jは第1の次元削減後の次元を表す。また、推定する対象物から求めた第1の次元削減結果をSjとする。
図2(b)で説明した2段階の次元削減(S230、S240)の場合の、確度算出(S260)方法について説明する。i番目の学習画像から求めた第1の次元削減(S230)の結果をPi,jとする。ここでは、jは第1の次元削減後の次元を表す。また、推定する対象物から求めた第1の次元削減結果をSjとする。
(b4.確度算出方法1:次元削減を1段階で行う場合)
次元削減は、2段階で行うことが必須ではなく、1段階で行ってもよい。2段階次元削減のように次元削減の中間結果が存在しない場合、処理条件推定後に、確度Aを求めればよい。ここでは、推定する対象物から求めたj番目の特徴量をSjとする。また、推定した処理条件に最も近い学習画像のj番目の特徴量をPjとする。
次元削減は、2段階で行うことが必須ではなく、1段階で行ってもよい。2段階次元削減のように次元削減の中間結果が存在しない場合、処理条件推定後に、確度Aを求めればよい。ここでは、推定する対象物から求めたj番目の特徴量をSjとする。また、推定した処理条件に最も近い学習画像のj番目の特徴量をPjとする。
本実施形態では対象物の測定データとしてパターン形状の画像を用いたが、測定データとしては画像以外を用いることもできる。例えば、対象物の反射光スペクトルを測定データとして対象物上に形成された薄膜の処理条件(処理時間やガス流量や温度や圧力など)を推定してもよい。
[C.作用効果]
上述した通り、本実施形態によれば、対象物の形状などを制限することなく、処理条件を推定することができる。
上述した通り、本実施形態によれば、対象物の形状などを制限することなく、処理条件を推定することができる。
[D.他の処理条件推定方法]
ここからは、他の処理条件推定方法について説明する。図7は、他の実施形態に係るニューラルネットワークを用いた(a)処理条件推定関数作成方法及び(b)処理条件推定方法に関するフローチャートである。
ここからは、他の処理条件推定方法について説明する。図7は、他の実施形態に係るニューラルネットワークを用いた(a)処理条件推定関数作成方法及び(b)処理条件推定方法に関するフローチャートである。
(d1.処理条件推定関数作成方法のフローチャートの説明)
図7(a)は、ニューラルネットワークを用いた処理条件推定関数作成方法のフローチャートである。処理条件推定関数などについては、図2などで説明しているため、重複した説明は省略する。
図7(a)は、ニューラルネットワークを用いた処理条件推定関数作成方法のフローチャートである。処理条件推定関数などについては、図2などで説明しているため、重複した説明は省略する。
S310では、図2のS110と同様、異なる処理条件により予め作成された対象物の所定の位置の画像を入力する。S310の場合も、図3で説明した画像入力の一例を用いる。
S320では、入力した画像の特徴量を算出する。S320の場合も、図4で説明した特徴量を算出するための一例を用いる。
S330は、特徴量の次元削減方法の学習ステップである。S320で求めた特徴量の次元数(図4の場合、17か所の線幅なので17次元)を、対象物を処理した処理条件種類数の次元数(図3の場合、焦点位置と露光量の2種類なので2次元)にまで次元削減し、このような次元削減を行う射影関数を学習生成する。次元削減方法として、ニューラルネットワークなどを用いる。なお、この処理条件種類が、本実施形態に係る処理条件推定装置が推定する処理条件である。
図8は、他の実施形態に係る次元削減を行うニューラルネットワークの構成の一例を説明するための図である。ここでは、3層の隠れ層があり、1層目と2層目のノードは32個、3層目のノードは16個で構成されている。
xiはS320で算出した特徴量、yiはプロセス処理条件の推定値である。ここでは、特徴量は17個、プロセス条件は焦点位置と露光量の2個である。すなわち、図8は、17個の測定データ(ここでは17個の画像の特徴量)を入力し、2個の処理条件(ここでは焦点位置と露光量)の推定値を出力する処理条件推定関数をニューラルネットワークで構成した例を表している。
ここで、Wi,j
kは実数であり、iは入力番号、jは各層のノード番号、kは隠れ層の番号である。fi,jは活性化関数とよばれ、シグモイド関数や双曲線正接関数などが使用される。学習とは、特徴量を入力したときに処理条件が出力されるようにWi,j
kの値を最適化することである。この最適化には勾配降下法、準ニュートン法、モーメンタム法、Adam法、LBFGS法(Limited-memory BFGS)、SGD(Stochastic Gradient Descent)法などを用いる。入力する特徴量は入力前に前処理として所定の範囲内となるように正規化を行ってもよい。出力値のプロセス処理条件に正規化を行った場合、後処理として元のプロセス条件に戻す処理を行う。
ここでは、特徴量抽出部で抽出した特徴量を推定部への入力としたが、特徴量抽出部で抽出した特徴量ではなく、測定データ(ここでは画像データ)を直接推定部へ入力する場合は、CNN(Convolutional Neural Network)などを用いて処理条件推定関数を構成してもよい。また、計算処理量を削減するため、入力する画像データの特定部分としてパターン領域やパターンエッジが変化している領域のみを使用してもよい。
S340はプロセス処理条件からS330の入力とした特徴量を求める特徴量推定関数を求めるステップである。ここでは、S330と同様にニューラルネットワークを用いて特徴量を推定する場合を説明する。
図9は、他の実施形態に係る特徴量推定を行うニューラルネットワークの構成の一例を説明するための図である。ここでは、3層の隠れ層があり、1層目と2層目のノードは8個、3層目のノードは4個で構成されている。yiはプロセス処理条件、xiは特徴量の推定値である。ここでは、特徴量は17個、プロセス条件は焦点位置と露光量の2個であるため、図9で示されるニューラルネットワークは17個となる。各パラメータはS330と同様で、学習方法は同様な方法で行う。ここでは、特徴量推定関数をニューラルネットワークで構成したが、他の補間方法、例えばBi-Linear法やBi-Cubic法などを用いてもよい。なお、S340は確度算出や学習結果評価等を行わない場合、省略してもよい。
また、S340で推定した特徴量を用いてS330を再学習するなど繰り返して行うことにより、S330で求めた処理条件推定関数とS340で求めた特徴量推定関数の精度を向上させてもよい。
図10及び図11は、焦点位置及び露光量から推定した値又は誤差を表示するグラフである。図10は、再学習が無い場合を、図11は再学習が有る場合を示している。
各グラフの座標軸は、図10(a)に一例を示す通り、x軸が焦点位置、y軸が露光量、z軸が推定した値又は誤差である。図10(a)のグラフは、x軸に焦点位置、y軸に露光量、z軸に推定した焦点位置をプロットしたものである。図10(b)は、x軸に焦点位置、y軸に露光量、z軸に推定した露光量をプロットしたものである。図10(c)は、x軸に焦点位置、y軸に露光量、z軸に焦点位置推定誤差をプロットしたものである。ここで、焦点位置推定誤差としては、焦点位置と焦点位置推定値との差の絶対値としている。図10(d)は、x軸に焦点位置、y軸に露光量、z軸に露光量推定誤差をプロットしたものである。ここで、露光量推定誤差としては、露光量と露光量推定値との差の絶対値としている。
図10の各グラフで、三角印は、学習に用いた画像から抽出した特徴量からS330で学習したニューラルネットワークで推定した焦点位置推定値または露光量推定値を示す。黒丸印は、露光量と焦点位置からS340で学習したニューラルネットワークで推定した特徴量を、S330で学習したニューラルネットワークで推定した焦点位置推定値または露光量推定値である。図10(c)および(d)から学習で用いた特徴量から推定した焦点位置推定誤差または露光量推定誤差(三角)は小さく、S340で学習したニューラルネットワークで露光量と推定値から推定した特徴量からS330で学習したニューラルネットワークで推定した焦点位置推定誤差または露光量推定誤差(黒丸)は大きくなっていることがわかる。ここでは、図10(c)、(d)のように推定処理条件毎に分けてプロットしたが、各誤差に補正係数を掛けて和をとることにより、1つのプロットにまとめてもよい。
このようにS330で学習に用いた露光量と焦点位置に対しては推定精度が高いが、それ以外に対しては推定精度が悪くなっていることがわかる。学習に用いた画像からの推定値以外の処理条件に対する推定結果を求めることにより、S330で行った学習結果の評価を行うことができる。学習結果の評価は、多数の処理条件の異なるサンプルの対象位置の画像を用いても行うのが理想的であるが、そのためには多数のサンプル作成と測定が必要となる。
特に、半導体製造では多数の異なる処理条件のサンプルを作成すること、さらに多数のサンプルの対象位置のサンプル画像を取得することは、非常にコストが掛かり困難であるため、推定した特徴量を用いて処理条件推定学習結果の評価を行うことは有用である。
処理条件推定学習結果の評価で推定誤差が大きい場合など、S330で行った学習にS340で露光量と焦点位置から推定した特徴量を追加してS330の再学習を行ってもよい。図11(a)、(b)、(c)、(d)は再学習したニューラルネットワークで推定した結果である。図10(a)、(b)、(c) 、(d)と同様にx軸は焦点位置、y軸は露光量、z軸はそれぞれ、焦点位置推定値、露光量推定値、焦点位置推定誤差、露光量推定誤差である。再学習前(図10)と比較してS340で推定した特徴量から推定した焦点位置推定誤差および露光量推定誤差(黒丸)が小さくなり、推定精度が向上していることがわかる。このように、S340で推定した特徴量によりS330を再学習することにより推定精度を向上させることができる。
また、推定誤差が大きい場合、ニューラルネットワークの構成を変更したり、特徴量の種類や抽出パターンを変更したり、学習画像に処理条件の異なる画像追加したり、同一処理条件の異なる位置の画像を追加してもよい。
また、S330及びS340で用いたニューラルネットワークはここで示されたものに限られるのではなく、層数やノード数や活性化関数など変更してもよい。
(d2.処理条件推定方法のフローチャートの説明)
図7(b)は、処理条件推定方法のフローチャートである。
図7(b)は、処理条件推定方法のフローチャートである。
S410では、S310と同様に、処理条件推定装置300の入力部が、実際に処理条件を推定すべき対象物の画像を入力する。ここで、入力される画像は、S310で入力した画像と同様の方法を用いて、対象物の所定の位置で取得した画像である。対象物の所定の位置とは対象物内の同一座標とは限らず対象物の同様な構造を有する位置を含む。例えば、パターンがある場合は同一形状パターンの位置、パターンがない場合は同じ膜構成の位置を含む。
S420では、処理条件推定装置300の特徴量算出部が、入力した画像の特徴量を算出する。S320と同様に、本実施形態では17個の特徴量を算出する。
処理条件推定装置300の推定部が、S430の次元削減を行う。S430では、S330で学習したニューラルネットワーク(学習済みのニューラルネットワーク)を用いて、S420で算出した特徴量(ここでは、17次元)を、S330と同様に処理条件種類数である次元(ここでは、2次元)に次元削減を行う。このようにして、焦点位置と露光量の処理条件の推定値を算出することができる。
また、ニューラルネットワークの出力値として正規化した処理条件値を使用した場合は、後処理として正規化した値を処理条件値に戻す処理を行ってもよい。また、複数の特徴量と処理条件推定関数との組合せがある場合は、それぞれの結果を総合して処理条件推定値を算出してもよい。
また、S440とS450によって、処理条件推定値の確度を算出することができる。確度とは、推定された処理条件の正確性を評価する値である。例えば、学習データと処理条件を推定したデータとの違いで、学習データとの違いが大きければ、推定した処理条件は誤差が大きい可能性があることを示している。
S440では、S430で求めた処理条件推定値を入力としてS340で学習したニューラルネットワーク(学習済みのニューラルネットワーク)を用いて各特徴量を推定する。S450では、S440で推定された各特徴量とS420で算出された入力画像から求めた特徴量との差の2乗和を確度として出力する。この場合、確度は0に近いほど確度が高いことになる。
(d3.確度算出方法:次元削減を行う場合)
次元削減をニューラルネットワークで行う場合、処理条件推定後に、式(2)で表される確度Aを求めればよい。ここでは、推定する対象物から取得した画像から求めたj番目の特徴量をSjとする。また、推定した処理条件からS440で推定したj番目の特徴量をPjとする。なお、σjは補正係数(定数)である。
次元削減をニューラルネットワークで行う場合、処理条件推定後に、式(2)で表される確度Aを求めればよい。ここでは、推定する対象物から取得した画像から求めたj番目の特徴量をSjとする。また、推定した処理条件からS440で推定したj番目の特徴量をPjとする。なお、σjは補正係数(定数)である。
ここでは、対象物の測定データとしてパターン形状のSEM画像を用いたが、測定データとしてはSEM画像以外を用いることもできる。例えば、対象物の反射光スペクトルを測定データとして対象物上に形成された薄膜の処理条件(処理時間やガス流量や温度や圧力など)を推定してもよい。また、確度は上記に限らず処理条件推定精度を評価する値であればどのように求めてもよい。
(d4.作用効果)
このように、他の実施形態も、対象物の形状などを制限することなく、処理条件を推定することができる。
このように、他の実施形態も、対象物の形状などを制限することなく、処理条件を推定することができる。
以上、本発明の実施形態について説明してきたが、これらのうち、2つ以上の実施例を組み合わせて実施しても構わない。あるいは、これらのうち、1つの実施例を部分的に実施しても構わない。
また、本発明は、上記発明の実施形態の説明に何ら限定されるものではない。特許請求の範囲の記載を逸脱せず、当業者が容易に想到できる範囲で種々の変形態様もこの発明に含まれる。例えば、入力部は、入力された画像データに対して、ノイズ除去などのフィルタ処理を行ってもよい。また、異なる処理条件で作成された対象物の同一箇所の測定データを取得し、この画像から特徴量を抽出してもよい。また、LLEなどの多様体学習やニューラルネットワークに限られず、他の機械学習法を用いてもよい。
また、抽出された特徴量と処理条件との関係を解析し、関係ルールを生成してもよい。条件振りを行う処理条件が露光処理の焦点位置と露光量の片方だけであってもよい。また、条件振りを行う処理条件がエッチングや薄膜成長などの処理時間、RFパワー、処理温度、処理圧力、ガス流量のいずれか、または、組み合わせであってもよい。特徴量が画素値、線幅、スペース幅、パターン・ピッチ、曲率、エッジ位置、傾斜、エッジ幅、パターン面積、スペース面積、反射光スペクトルなど対象物測定データと測定データから抽出されるデータのいずれか、または、組み合わせであってもよい。また、本実施形態に係る処理条件推定装置は、半導体ウェハに限らず、マスク(フォトマスク、EUVマスクなど)やFPDやインターポーザやTSVs(Through-Silicon Vias)プリント基板にも適用可能である。
100 半導体製造システム
200 露光装置
300 中央演算処理装置(処理条件推定装置)
400 形状測定装置(CD-SEM)
200 露光装置
300 中央演算処理装置(処理条件推定装置)
400 形状測定装置(CD-SEM)
Claims (14)
- 対象物を処理した処理条件を推定する処理条件推定装置であって、
前記対象物の所定の位置で取得した測定データを入力する入力部と、
測定データを入力して処理条件の推定値を出力する処理条件推定関数に基づいて、前記入力された測定データから、前記対象物を処理した処理条件を推定する推定部と、
を備える処理条件推定装置。 - 前記推定部は、前記入力された測定データから特徴量を算出する請求項1に記載の処理条件推定装置。
- 前記推定部は、前記処理条件の種類数と同じ次元数まで前記測定データの次元削減を行う請求項1に記載の処理条件推定装置。
- 前記推定部は、前記推定した処理条件の確度を算出する請求項1に記載の処理条件推定装置。
- 前記処理条件推定関数はニューラルネットワークで構成される請求項1に記載の処理条件推定装置。
- 前記入力部は、前記測定データの特定部分を設定し、
前記処理条件推定関数は、前記特定部分を入力して前記処理条件の推定値を出力する関数である、請求項1に記載の処理条件推定装置であって、
前記推定部は、前記処理条件推定関数に基づいて、前記特定部分から、前記処理条件を推定する請求項1に記載の処理条件推定装置。 - 前記特定部分は、前記処理条件に依存して変化する領域を含む請求項6に記載の処理条件推定装置。
- 前記処理条件推定関数を再学習する請求項1に記載の処理条件推定装置。
- 前記推定した処理条件を表示する表示部をさらに備える請求項1に記載の処理条件推定装置。
- 前記測定データが画像である請求項1に記載の処理条件推定装置。
- 前記処理条件は、露光装置の焦点位置及び露光量のいずれかまたは両方である請求項1に記載の処理条件推定装置。
- 前記処理条件は、前記対象物上に形成する薄膜の膜厚形成条件及びエッチング条件のいずれかまたは両方である請求項1に記載の処理条件推定装置。
- 対象物を処理した処理条件を推定する処理条件推定方法であって、
前記対象物の所定の位置で取得した測定データを入力し、
測定データを入力して処理条件の推定値を出力する処理条件推定関数に基づいて、前記入力された測定データから、前記対象物を処理した処理条件を推定する処理条件推定方法。 - 対象物を処理した処理条件を推定する処理条件推定プログラムであって、
前記対象物の所定の位置で取得した測定データを入力するステップと、
測定データを入力して処理条件の推定値を出力する処理条件推定関数に基づいて、前記入力された測定データから、前記対象物を処理した処理条件を推定するステップと、
をコンピュータに実行させる処理条件推定プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021553677A JP7094594B2 (ja) | 2019-10-30 | 2020-10-29 | 処理条件推定装置、方法及びプログラム |
US17/729,044 US12148140B2 (en) | 2019-10-30 | 2022-04-26 | Process condition estimating apparatus, method, and program |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019-197402 | 2019-10-30 | ||
JP2019197402 | 2019-10-30 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US17/729,044 Continuation US12148140B2 (en) | 2019-10-30 | 2022-04-26 | Process condition estimating apparatus, method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2021085522A1 true WO2021085522A1 (ja) | 2021-05-06 |
Family
ID=75716316
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2020/040589 WO2021085522A1 (ja) | 2019-10-30 | 2020-10-29 | 処理条件推定装置、方法及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US12148140B2 (ja) |
JP (1) | JP7094594B2 (ja) |
TW (1) | TWI846977B (ja) |
WO (1) | WO2021085522A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN119002168B (zh) * | 2024-10-23 | 2025-02-07 | 华芯程(杭州)科技有限公司 | 掩膜制造方法、装置、存储介质及电子设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011044592A (ja) * | 2009-08-21 | 2011-03-03 | Nec Corp | 信頼度判断装置、信頼度判断方法、及び信頼度判断用コンピュータプログラム |
JP2019165123A (ja) * | 2018-03-20 | 2019-09-26 | 株式会社日立ハイテクノロジーズ | 探索装置、探索方法及びプラズマ処理装置 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05190458A (ja) * | 1991-11-15 | 1993-07-30 | Fuji Electric Co Ltd | 学習予測・指示機能付半導体製造装置 |
US7444616B2 (en) * | 1999-05-20 | 2008-10-28 | Micronic Laser Systems Ab | Method for error reduction in lithography |
JP2004021898A (ja) * | 2002-06-20 | 2004-01-22 | Ricoh Co Ltd | 金型改造の見積りシステム及び見積りプログラム |
US20050185174A1 (en) * | 2004-02-23 | 2005-08-25 | Asml Netherlands B.V. | Method to determine the value of process parameters based on scatterometry data |
JP4898419B2 (ja) | 2006-01-05 | 2012-03-14 | キヤノン株式会社 | 露光量のおよびフォーカス位置のオフセット量を求める方法、プログラムおよびデバイス製造方法 |
WO2007102484A1 (ja) * | 2006-03-07 | 2007-09-13 | Nikon Corporation | デバイス製造方法、デバイス製造システム及び測定検査装置 |
NL2003699A (en) * | 2008-12-18 | 2010-06-21 | Brion Tech Inc | Method and system for lithography process-window-maximixing optical proximity correction. |
CN103649883B (zh) * | 2011-07-11 | 2017-09-08 | 富士胶片株式会社 | 导电片及其制造方法、触摸屏以及显示装置 |
JP5809117B2 (ja) * | 2011-10-05 | 2015-11-10 | 富士フイルム株式会社 | 導電シート、タッチパネル、表示装置 |
JP5781886B2 (ja) * | 2011-10-05 | 2015-09-24 | 富士フイルム株式会社 | 導電シート、タッチパネル及び表示装置 |
US10151986B2 (en) * | 2014-07-07 | 2018-12-11 | Kla-Tencor Corporation | Signal response metrology based on measurements of proxy structures |
US9262819B1 (en) * | 2014-09-26 | 2016-02-16 | GlobalFoundries, Inc. | System and method for estimating spatial characteristics of integrated circuits |
JP2017049047A (ja) * | 2015-08-31 | 2017-03-09 | 大日本印刷株式会社 | 測定システム、測定方法、センサ選定装置、及びプログラム |
CA3012049A1 (en) * | 2016-01-20 | 2017-07-27 | Ez3D, Llc | System and method for structural inspection and construction estimation using an unmanned aerial vehicle |
US11276160B2 (en) * | 2017-10-02 | 2022-03-15 | Applied Materials Israel Ltd. | Determining a critical dimension variation of a pattern |
JP7017985B2 (ja) * | 2018-06-05 | 2022-02-09 | 株式会社日立製作所 | システム及び処理条件の決定方法 |
JP7206961B2 (ja) * | 2019-01-30 | 2023-01-18 | 日立金属株式会社 | 半導体製造装置の管理システム及びその方法 |
JP6898371B2 (ja) * | 2019-02-28 | 2021-07-07 | ファナック株式会社 | 加工条件調整装置及び加工条件調整システム |
JP6872670B2 (ja) * | 2019-07-04 | 2021-05-19 | 株式会社日立ハイテク | 寸法計測装置、寸法計測プログラム及び半導体製造システム |
US11530915B2 (en) * | 2019-08-07 | 2022-12-20 | Hitachi High-Tech Corporation | Dimension measuring device, dimension measuring method, and semiconductor manufacturing system |
-
2020
- 2020-10-29 WO PCT/JP2020/040589 patent/WO2021085522A1/ja active Application Filing
- 2020-10-29 TW TW109137700A patent/TWI846977B/zh active
- 2020-10-29 JP JP2021553677A patent/JP7094594B2/ja active Active
-
2022
- 2022-04-26 US US17/729,044 patent/US12148140B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011044592A (ja) * | 2009-08-21 | 2011-03-03 | Nec Corp | 信頼度判断装置、信頼度判断方法、及び信頼度判断用コンピュータプログラム |
JP2019165123A (ja) * | 2018-03-20 | 2019-09-26 | 株式会社日立ハイテクノロジーズ | 探索装置、探索方法及びプラズマ処理装置 |
Also Published As
Publication number | Publication date |
---|---|
US20220254009A1 (en) | 2022-08-11 |
US12148140B2 (en) | 2024-11-19 |
JPWO2021085522A1 (ja) | 2021-05-06 |
TW202117467A (zh) | 2021-05-01 |
JP7094594B2 (ja) | 2022-07-04 |
TWI846977B (zh) | 2024-07-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7004826B2 (ja) | 寸法計測装置、寸法計測方法及び半導体製造システム | |
KR101855803B1 (ko) | 식각 근접 보정방법 | |
WO2022121736A1 (zh) | 一种基于机器学习的cdsem图像虚拟测量方法 | |
US7844939B2 (en) | Mask pattern correction program and system | |
US20230118656A1 (en) | Machine learning based model builder and its applications for pattern transferring in semiconductor manufacturing | |
TWI596423B (zh) | 決定或使用積體電路製造製程模型的方法、決定或使用此模型的電腦程式、及半導體製造設備 | |
JP7094594B2 (ja) | 処理条件推定装置、方法及びプログラム | |
TWI575307B (zh) | 資料補正裝置,描繪裝置,資料補正方法及描繪方法 | |
JP2016021008A (ja) | マルチパターニング用マスクのパターン評価方法およびパターン評価装置 | |
CN112258468A (zh) | 一种套刻标识图像处理方法及装置 | |
JPH095981A (ja) | マスクパターンの作成方法 | |
WO2020154979A1 (zh) | 一种图形图像联合优化的光刻掩模优化方法、装置及电子设备 | |
TWI617899B (zh) | 經由匹配程序決定施加至積體電路製造過程之劑量校正的方法 | |
US9262819B1 (en) | System and method for estimating spatial characteristics of integrated circuits | |
TWI741541B (zh) | 影像分析系統及影像分析方法 | |
JP7211627B2 (ja) | パターン測定装置、方法及びプログラム、並びに、パターン検査装置、方法及びプログラム | |
US10564554B2 (en) | System and method for analyzing printed masks for lithography based on representative contours | |
CN114049342A (zh) | 一种去噪模型生成方法、系统、设备及介质 | |
US6456741B1 (en) | Structure-guided image measurement method | |
CN117518736B (zh) | 套刻误差量测的方法、装置、系统及存储介质 | |
Zhu et al. | Machine learning-enhanced model-based optical proximity correction by using convolutional neural network-based variable threshold method | |
Xie et al. | Quantitative Comparison of Simulation and Experiment Enabling a Lithography Digital Twin | |
CN113554585B (zh) | 影像分析系统及影像分析方法 | |
CN110068986B (zh) | 修整图形的方法、介质、服务器及光学掩模的制造方法 | |
CN119358486A (zh) | 用于opc模型的方法、电子设备及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 20883223 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2021553677 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 20883223 Country of ref document: EP Kind code of ref document: A1 |