[go: up one dir, main page]

JP6419115B2 - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP6419115B2
JP6419115B2 JP2016141601A JP2016141601A JP6419115B2 JP 6419115 B2 JP6419115 B2 JP 6419115B2 JP 2016141601 A JP2016141601 A JP 2016141601A JP 2016141601 A JP2016141601 A JP 2016141601A JP 6419115 B2 JP6419115 B2 JP 6419115B2
Authority
JP
Japan
Prior art keywords
image
scan
images
image processing
similarity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016141601A
Other languages
Japanese (ja)
Other versions
JP2016179348A (en
Inventor
好彦 岩瀬
好彦 岩瀬
片山 昭宏
昭宏 片山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016141601A priority Critical patent/JP6419115B2/en
Publication of JP2016179348A publication Critical patent/JP2016179348A/en
Application granted granted Critical
Publication of JP6419115B2 publication Critical patent/JP6419115B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Eye Examination Apparatus (AREA)

Description

本発明は、眼部における断層画像の高画質化に関する技術である。   The present invention relates to a technique relating to high image quality of a tomographic image in an eye part.

光干渉断層計(Optical Coherence Tomography、以下「OCT」と呼ぶ)などの眼部の断層画像撮影装置は、網膜層内部の状態を三次元的に観察することが可能である。この断層画像撮影装置は、疾病の診断をより的確に行うのに有用であることから近年注目を集めている。   An ophthalmic tomographic imaging apparatus, such as an optical coherence tomography (hereinafter referred to as “OCT”), can observe the state inside the retinal layer in three dimensions. This tomographic imaging apparatus has attracted attention in recent years because it is useful for more accurately diagnosing diseases.

眼科の診断においては、網膜層全体の状態を把握するためにボリューム画像と、低画質な断層画像には写らない層を把握するための高画質な二次元断層画像とが用いられる場合がある。なお、ボリューム画像とは二次元断層画像の集合のことをいう。   In ophthalmologic diagnosis, there are cases where a volume image is used to grasp the state of the entire retinal layer and a high-quality two-dimensional tomographic image is used to grasp a layer that does not appear in a low-quality tomographic image. A volume image means a set of two-dimensional tomographic images.

OCTで得られる断層画像の画質は、網膜に入射される近赤外光の強度に依存する。このため、断層画像の画質を向上させるためには、網膜に照射する光の強度を上げる必要があるが、安全性の観点から、網膜に照射可能な光の強度には限界がある。このため、安全上、問題のない強度範囲で近赤外光の照射を行いつつ、高画質な断層画像を生成することが望まれている。このような要求に対して、撮影した二次元の断層画像群を、互いに重ね合わせることにより、ノイズの少ない断面画像を生成する技術が開示されている(特許文献1参照)。   The image quality of a tomographic image obtained by OCT depends on the intensity of near infrared light incident on the retina. For this reason, in order to improve the image quality of a tomographic image, it is necessary to increase the intensity of light irradiated to the retina, but from the viewpoint of safety, there is a limit to the intensity of light that can be irradiated to the retina. For this reason, it is desired to generate a high-quality tomographic image while irradiating near-infrared light within a safe intensity range for safety. In response to such a requirement, a technique for generating a cross-sectional image with less noise by superimposing photographed two-dimensional tomographic image groups on each other is disclosed (see Patent Document 1).

特開2008−237238号公報JP 2008-237238 A

しかし、特許文献1では、単に複数の断層画像全体を加算平均しているだけである。このため、加算した断層画像間の相関が低い場合には、診断情報の低減が大きくなる場合がある。特に、眼は固視微動などが起こるため、隣接する画像の全領域が類似しているとは限らない。   However, in Patent Document 1, the entire plurality of tomographic images are simply averaged. For this reason, when the correlation between the added tomographic images is low, the reduction of the diagnostic information may be large. In particular, since eye movements and the like occur, the entire areas of adjacent images are not always similar.

本発明は上記課題に鑑みてなされたものであり、断層画像の画質を向上させることを目的とする。   The present invention has been made in view of the above problems, and an object thereof is to improve the image quality of a tomographic image.

上記の目的を達成するための、本発明の一態様による画像処理装置は、以下の構成を備える。   In order to achieve the above object, an image processing apparatus according to an aspect of the present invention includes the following arrangement.

即ち、同一位置を複数回走査するように制御されたOCT(Optical Coherence Tomography)の測定光に基づいて得られた被検眼の眼底の複数の断層画像が位置合わせされた後に、前記複数の断層画像それぞれにおけるAスキャン方向に対して直交する方向に所定の幅を有する前記断層画像の一部の領域である部分領域間の類似度を算出する算出手段と、前記算出手段により算出された類似度が所定値よりも高い前記部分領域に含まれるAスキャン画像を前記複数の断層画像間において対応する複数のAスキャン画像から選択する選択手段と、前記選択手段により選択された複数のAスキャン画像から1のAスキャン画像を生成する生成手段と、を備え、前記Aスキャン方向に対して直交する方向における前記部分領域の幅はAスキャン画像の幅よりも大きいことを特徴とする被検眼の眼底の複数の断層画像を位置合わせする位置合わせ手段と、前記位置合わせ手段により位置合わせされた後に前記複数の断層画像間の類似度を算出する算出手段と、前記算出手段により算出された類似度が所定値よりも高い複数の断層画像を前記複数の断層画像から選択する選択手段と、前記選択手段により選択された複数の断層画像から1の断層画像を生成する生成手段と、を備える。 That is, after the plurality of tomographic images of the fundus of the eye to be examined obtained based on the measurement light of OCT (Optical Coherence Tomography) controlled to scan the same position a plurality of times, the plurality of tomographic images are aligned. Calculating means for calculating a similarity between partial areas, which are partial areas of the tomographic image having a predetermined width in a direction orthogonal to the A-scan direction, and the similarity calculated by the calculating means A selection unit that selects an A scan image included in the partial region higher than a predetermined value from a plurality of corresponding A scan images between the plurality of tomographic images, and one of the plurality of A scan images selected by the selection unit. Generating means for generating an A scan image of the A scan image, and the part in a direction orthogonal to the A scan direction Alignment means for aligning a plurality of tomographic images of the fundus of the eye to be examined, wherein the width of the region is larger than the width of the A-scan image, and the plurality of tomographic images after being aligned by the alignment means A calculation unit that calculates a similarity between them, a selection unit that selects a plurality of tomographic images whose similarity calculated by the calculation unit is higher than a predetermined value from the plurality of tomographic images, and a selection unit selected by the selection unit Generating means for generating one tomographic image from a plurality of tomographic images.

本発明によれば、断層画像の画質を向上させることができる。   According to the present invention, the image quality of a tomographic image can be improved.

画像処理システムの構成を示す図である。It is a figure which shows the structure of an image processing system. 画像処理装置における断層画像撮影処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the tomographic imaging process in an image processing device. 重ね合わせ画像生成処理を説明するための図である。It is a figure for demonstrating a superimposition image generation process. 重ね合わせ領域を説明するための図である。It is a figure for demonstrating a superimposition area | region. 重ね合わせの判定処理を説明するための図である。It is a figure for demonstrating the determination process of superimposition. 画像処理システムの構成を示す図である。It is a figure which shows the structure of an image processing system. 画像処理装置における断層画像撮影処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the tomographic imaging process in an image processing device. 重ね合わせ領域を説明するための図である。It is a figure for demonstrating a superimposition area | region.

(実施例1)
以下、図面を参照しながら、本実施形態に係る画像処理装置を備える画像処理システムについて説明する。
Example 1
Hereinafter, an image processing system including the image processing apparatus according to the present embodiment will be described with reference to the drawings.

図1は、本実施形態に係る画像処理装置110を備える画像処理システム100の構成を示す図である。図1に示すように、画像処理システム100は、画像処理装置110が、インタフェースを介して断層画像撮影装置120と接続されることにより構成されている。   FIG. 1 is a diagram illustrating a configuration of an image processing system 100 including an image processing apparatus 110 according to the present embodiment. As shown in FIG. 1, the image processing system 100 is configured by connecting an image processing apparatus 110 to a tomographic imaging apparatus 120 via an interface.

断層画像撮影装置120は、眼部の断層画像を撮影する装置であり、例えばタイムドメイン方式のOCTやフーリエドメイン方式のOCTからなる。なお、断層画像撮影装置120は既知の装置であるため、詳細な説明は省略する。   The tomographic imaging apparatus 120 is an apparatus that captures a tomographic image of the eye, and includes, for example, a time domain type OCT or a Fourier domain type OCT. Since the tomographic imaging apparatus 120 is a known apparatus, detailed description thereof is omitted.

画像処理装置110は、取得部111、記憶部112、画像処理部113、表示制御部114とを備える。   The image processing apparatus 110 includes an acquisition unit 111, a storage unit 112, an image processing unit 113, and a display control unit 114.

取得部111は、断層画像撮影装置120により撮影された断層画像を取得し、記憶部112に格納する。画像処理部113では、記憶部112で記憶している断層画像から、新たな二次元断層画像を生成する。表示制御部114は処理後の画像を図示しないモニタに表示するための制御をする。   The acquisition unit 111 acquires a tomographic image captured by the tomographic image capturing apparatus 120 and stores it in the storage unit 112. The image processing unit 113 generates a new two-dimensional tomographic image from the tomographic images stored in the storage unit 112. The display control unit 114 performs control for displaying the processed image on a monitor (not shown).

複数箇所を順次走査してもよいが、特に画質の向上がある例示として、図3(a)に、断層画像撮影装置120でほぼ同一箇所を繰り返し走査し続けて撮影した例における黄斑部の二次元断層画像群の模式図を示す。ここで二次元断層画像を撮像するために測定光を走査する方向を主走査方向とよぶ。主走査方向に直交する方向を副走査方向とよぶこととする。   Although a plurality of locations may be scanned sequentially, as an example in which the image quality is particularly improved, FIG. 3 (a) shows a second example of a macular portion in an example in which the tomographic image capturing apparatus 120 continuously scans almost the same location repeatedly. The schematic diagram of a two-dimensional tomographic image group is shown. Here, the direction in which the measurement light is scanned to capture a two-dimensional tomographic image is referred to as a main scanning direction. A direction orthogonal to the main scanning direction is called a sub-scanning direction.

また、一般に、断層画像撮影装置120では測定光を副走査方向にずらしながら主走査方向の撮像を行う。つまり、本発明は、副走査方向にずらす場合にも適応できるものである。   In general, the tomographic imaging apparatus 120 performs imaging in the main scanning direction while shifting the measurement light in the sub-scanning direction. That is, the present invention can also be applied when shifting in the sub-scanning direction.

図3(a)において、x、zは座標軸、tは時間軸を表している。T〜Tは異なる時点に撮影した黄斑部の二次元断層画像である。すなわち、二次元断層画像群はほぼ同一箇所を撮影した二次元断層画像の集合により形成される。 In FIG. 3A, x and z represent coordinate axes, and t represents a time axis. T 1 to T n are two-dimensional tomographic images of the macular region taken at different time points. That is, the two-dimensional tomographic image group is formed by a set of two-dimensional tomographic images obtained by photographing almost the same part.

ここで、高画質化とはS/N比を向上させることを意味するものとする。   Here, the improvement in image quality means that the S / N ratio is improved.

また、画質の向上とは、S/N比の向上を意味するものとする。   The improvement in image quality means an improvement in the S / N ratio.

次に、図2(a)、図2(b)のフローチャートを参照して本実施形態の画像処理装置110の処理手順を示す。
<ステップS201>
ステップS201では、網膜層を撮影するために、不図示の制御部により、断層画像撮影装置120を制御する。まず、測定光が照射される方向である深度方向(図3(a)のz方向)とz方向と直交する平面方向(図3(a)のx方向)との位置を調整する。ここで深度方向の位置を合わせるとは、断層像を得るためのコヒーレントゲートの位置を合わせることに相当する。
<ステップS202>
ステップS201で、不図示の制御部により網膜層を撮影するのに適した位置に調整を行った後、ステップS202で、不図示の撮影指示部により撮影開始を指示する。
<ステップS203>
ステップS203では、操作者が撮影指示をすると、不図示の制御部により、ほぼ同一箇所を繰り返し走査し、複数の二次元断層画像を撮影する。
Next, a processing procedure of the image processing apparatus 110 of this embodiment will be described with reference to the flowcharts of FIGS. 2 (a) and 2 (b).
<Step S201>
In step S201, the tomographic image capturing apparatus 120 is controlled by a control unit (not shown) to capture the retinal layer. First, the positions of the depth direction (z direction in FIG. 3A), which is the direction in which the measurement light is irradiated, and the plane direction orthogonal to the z direction (x direction in FIG. 3A) are adjusted. Here, matching the position in the depth direction corresponds to matching the position of the coherent gate for obtaining the tomographic image.
<Step S202>
In step S201, the control unit (not shown) adjusts the position suitable for photographing the retinal layer, and in step S202, the photographing instruction unit (not shown) instructs the start of photographing.
<Step S203>
In step S203, when an operator gives an imaging instruction, a control unit (not shown) repeatedly scans substantially the same portion to capture a plurality of two-dimensional tomographic images.

なお、不図示の制御部は、副走査方向に移動する間隔を調整する機能も有する。
<ステップS204>
ステップS204では、画像処理部113が、記憶部112に記憶された二次元断層画像群を用いて、新たな二次元断層画像を生成する。高画質化した二次元断層画像の生成処理について、図2(b)を参照して説明する。
<ステップS210>
ステップS210では、第一の位置合わせ部115において、二次元断層画像同士の位置合わせを行う。位置合わせ処理としては、例えば、2つの二次元断層画像の類似性を示す評価関数を事前に定義しておき、この評価関数の値が最も良くなるように断層画像を変形する。評価関数としては、画素値で評価する方法が挙げられる(例えば、式(1)の相関係数を用いて評価を行う方法が挙げられる)。また、画像の変形処理としては、アフィン変換を用いて並進や回転を行ったり、拡大率を変化させたりする処理が挙げられる。位置合わせ処理として、特徴点ベースで位置を合わせてもよい。例えば、二次元断層画像から各網膜層や病変などの特徴部を抽出する。内境界膜、神経線維層、視細胞内節外節接合部、網膜色素上皮層は輝度値が高く、層の境界はコントラストが高いため、これらの層や特徴部の検出結果を利用して位置合わせを行う。
Note that the control unit (not shown) also has a function of adjusting the interval of movement in the sub-scanning direction.
<Step S204>
In step S <b> 204, the image processing unit 113 generates a new two-dimensional tomographic image using the two-dimensional tomographic image group stored in the storage unit 112. A process for generating a high-quality two-dimensional tomographic image will be described with reference to FIG.
<Step S210>
In step S210, the first alignment unit 115 aligns two-dimensional tomographic images. As the alignment processing, for example, an evaluation function indicating the similarity between two two-dimensional tomographic images is defined in advance, and the tomographic image is deformed so that the value of this evaluation function becomes the best. Examples of the evaluation function include a method of evaluating with pixel values (for example, a method of performing evaluation using the correlation coefficient of Expression (1)). Examples of the image deformation process include a process of performing translation and rotation using affine transformation and changing an enlargement ratio. As the alignment process, the position may be aligned based on feature points. For example, features such as each retinal layer and lesion are extracted from the two-dimensional tomographic image. The inner boundary membrane, nerve fiber layer, photoreceptor inner / outer joint junction, and retinal pigment epithelium layer have high luminance values, and the layer boundary has high contrast. Align.

したがって、二次元断層画像を変形させながら評価関数が最大となる位置変形パラメータを計算し、二次元断層画像間の位置を合わせる。重ね合わせのための二次元断層画像の枚数がN枚であった場合、基準となる二次元断層画像に対してN−1枚の二次元断層画像の位置合わせ処理を行う。
<ステップS211>
ステップS211では、判定部117において、対応するAスキャン画像毎に重ね合わせを行うAスキャン画像を判定する。この処理について図4を用いて説明を行う。T’とTi+1’は、異なる時点で撮像された二次元断層画像で、ステップS210において位置合わせを行ったものである。Aij’、A(i+1)j’は、位置合わせ後のT’とTi+1’において、それぞれ対応するAスキャン画像を表している。なお、本発明におけるAスキャン画像は、図4において、z軸方向に並行な1本の画素列のことをAスキャン画像としている。
Accordingly, the position deformation parameter that maximizes the evaluation function is calculated while deforming the two-dimensional tomographic image, and the positions between the two-dimensional tomographic images are matched. When the number of two-dimensional tomographic images for superposition is N, N-1 two-dimensional tomographic image alignment processing is performed on the reference two-dimensional tomographic image.
<Step S211>
In step S211, the determination unit 117 determines an A-scan image to be superimposed for each corresponding A-scan image. This process will be described with reference to FIG. T i ′ and T i + 1 ′ are two-dimensional tomographic images captured at different points in time and are aligned in step S210. A ij ′ and A (i + 1) j ′ respectively represent A scan images corresponding to T i ′ and T i + 1 ′ after alignment. In the A scan image in the present invention, one pixel column parallel to the z-axis direction in FIG. 4 is an A scan image.

Aスキャン画像は測定光の入射方向に合致した画像であり、同一箇所から得られた個々のAスキャン画像はほぼ同一の画像情報を有する。このため、眼の固視微動により二次元断層像全体では類似性が低い場合でも、異なる二次元断層像のAスキャン画像において相互に類似性が高いデータが存在する場合がある。   The A-scan image is an image that matches the incident direction of the measurement light, and each A-scan image obtained from the same location has almost the same image information. For this reason, even if the similarity of the entire two-dimensional tomographic image is low due to eye fixation micromotion, there may be data having high similarity in the A-scan images of different two-dimensional tomographic images.

同一の斜線の領域Rij’、R(i+1)j’はAij’、A(i+1)j’を中心にx軸方向に+−αの領域を表している。算出部116では、Aスキャン画像を中心とした画像領域Rij’、R(i+1)j’において、Aスキャン画像間の類似度を算出する。重ね合わせ判定を行うための基準領域をRij’とした場合、R1j’〜 Rnj’の全ての対応する領域間で類似度の計算を算出部116が行う。ここで、Aスキャン画像間の類似性を示す評価関数として相関係数を用いた場合の式を数1に示す。 The same hatched regions R ij ′ and R (i + 1) j ′ represent + −α regions in the x-axis direction centering on A ij ′ and A (i + 1) j ′. The calculation unit 116 calculates the similarity between the A scan images in the image regions R ij ′, R (i + 1) j ′ centered on the A scan image. When the reference region for performing overlay determination is R ij ′, the calculation unit 116 calculates the similarity between all corresponding regions of R 1j ′ to R nj ′. Here, an equation in the case of using a correlation coefficient as an evaluation function indicating the similarity between the A-scan images is shown in Equation 1.

図4の場合において、領域Rij’をf(x,y)、R(i+1)j’をg(x,y)とする。 In the case of FIG. 4, it is assumed that the region R ij ′ is f (x, y) and R (i + 1) j ′ is g (x, y).

は、それぞれ領域f(x,y)と領域g(x,y)の平均を表す。   Respectively represent the average of the region f (x, y) and the region g (x, y).

判定部117では、領域毎に重ね合わせに用いる領域を選択する。判定部の処理について図5を用いて説明をする。図5は領域間の類似度を算出部116が計算した結果の例を示している。   The determination unit 117 selects a region to be used for superposition for each region. The processing of the determination unit will be described with reference to FIG. FIG. 5 shows an example of the result of the calculation unit 116 calculating the similarity between regions.

横軸は、撮影した二次元断層画像の番号1〜Nである。縦軸は、基準領域と他の二次元断層画像における領域との類似度を表している。図5(a)は、閾値Thを設定し、所定値以上の類似度となる領域を選択する場合の例である。図5(b)は、図5(a)を類似度順にソートしたものであり、類似度の上位M枚を選択する例である。図5(c)は、類似度順にソート処理し、ソート処理後の類似度の変化率を線グラフで表している。ここでは、類似度の変化率が著しく低下する前の画像を選択する場合の例である。つまり、ソート処理後の類似度の変化率が所定値を示すところの類似度を求め、求めた類似度以上の値の領域を選択する。   The horizontal axis is numbers 1 to N of the captured two-dimensional tomographic image. The vertical axis represents the similarity between the reference region and the region in another two-dimensional tomographic image. FIG. 5A shows an example in which a threshold Th is set and a region having a similarity equal to or higher than a predetermined value is selected. FIG. 5B is an example in which FIG. 5A is sorted in the order of similarity, and the top M sheets with similarities are selected. FIG. 5C shows a line graph representing the change rate of the similarity after the sort processing in the order of similarity. Here, it is an example in the case of selecting an image before the rate of change in similarity is significantly reduced. That is, the similarity where the change rate of the similarity after the sorting process shows a predetermined value is obtained, and an area having a value equal to or higher than the obtained similarity is selected.

また、ソート処理せずに類似度間の変化率を見る。類似度が所定値よりも低下した場合に評価値の計算を算出部116が止める。評価値が所定値以上でかつ計算を止める前の画像を選択する。
(a)の閾値の場合は、評価値の悪いものは重ね合わせに用いないので、評価値の良い領域のみ重ね合わせることが出来る。
Also, the rate of change between similarities is seen without sorting. When the similarity is lower than a predetermined value, the calculation unit 116 stops calculating the evaluation value. An image whose evaluation value is equal to or greater than a predetermined value and before the calculation is stopped is selected.
In the case of the threshold value (a), those with poor evaluation values are not used for superimposition, so that only regions with good evaluation values can be overlaid.

これは、副走査方向の単位時間あたりの移動距離が小さい場合に好適である。組織構造の変化は少ないが、特異的な眼の動きや、瞬きにより生じた組織構造が大きく異なる領域の画像を選択しない効果を有するからである。
(b)の固定枚数としてM枚選択する場合は、画像単位での重ね合わせ平均化処理を行うデータ数にバラツキがなくなる。各Aスキャン画像単位での重ね合わせ平均化処理を行うデータ数にもバラツキがなくなるものである。ノイズの低減化の程度が揃えられるので、画質を同程度にする場合にはより好適である。
(c)の変化率を見る場合は、病気などで全体的に画質が悪く全体的に類似度が低くなる場合においても、類似する領域同士を選択することが出来るといった特徴がある。
(d)の方法は、副走査方向の単位時間あたりの移動距離が大きくなる場合にも好適である。副走査方向のずれが所定値を超えると網膜の組織構造が異なってくるので、不必要に評価値を算出部116が計算するのを押さえることがでるためである。即ち、変化率を見る事で組織構造の変化もわかることになる。
This is suitable when the movement distance per unit time in the sub-scanning direction is small. This is because there is little change in the tissue structure, but there is an effect of not selecting an image in a region where the tissue structure caused by specific eye movement or blinking is greatly different.
When M sheets are selected as the fixed number of sheets (b), there is no variation in the number of data to be subjected to the overlay averaging process in units of images. There is no variation in the number of data to be subjected to the overlay averaging process for each A-scan image unit. Since the degree of noise reduction can be made uniform, it is more suitable when the image quality is made comparable.
When viewing the rate of change in (c), there is a feature that similar regions can be selected even when the overall image quality is poor due to illness or the like and the similarity is low overall.
The method (d) is also suitable when the moving distance per unit time in the sub-scanning direction becomes large. This is because when the deviation in the sub-scanning direction exceeds a predetermined value, the tissue structure of the retina is different, so that the calculation unit 116 can be prevented from calculating the evaluation value unnecessarily. In other words, the change in organizational structure can be seen by looking at the rate of change.

以上において、各領域において、評価値に基づいて重ね合わせを行う領域を選択している。そのため、固視微動などにより二次元断層画像内で網膜層が変形している場合や、まばたきやケラレなどにより、部分的に画質が低下している領域は重ね合わせに用いないので新たに生成した画像は高画質化される。   As described above, in each region, the region to be superimposed is selected based on the evaluation value. Therefore, when the retinal layer is deformed in the two-dimensional tomographic image due to fixation micromotion, etc., or the area where the image quality is partially degraded due to blinking or vignetting is not used for overlaying, it was newly generated The image quality is improved.

また、副走査方向の単位時間あたりの移動距離に応じて上記の(a)〜(d)を判定部117は組み合わせる処理を行う。例えば、移動距離が所定値未満の場合には(a)又は(b)の処理を用い、距離が所定値を超える場合には(c)または(d)の処理を行う。(a)と(d)の組合せでは速度を重視した処理を行え、(b)と(d)の組合せでは、画質を重視した処理が行える。
<ステップS212>
ステップS212では、生成部118が重ね合わせ処理を行う。ここでは、Aスキャン画像が2つの場合の重ね合わせについて説明をする。図3(b)は、二次元断層画像をAスキャン画像毎に処理し、1枚の二次元断層画像を合成画像として生成する処理を説明するための図である。つまり、異なる時点で撮像された、異なる二次元断層画像上に位置するAスキャン画像の加算平均処理を例として説明する。図3(c)は、各画素あたりM個(本例では2個)の画素を用いて加算平均処理を行うことにより生成された高画質化された二次元断層画像である。つまり、図3(c)において、Aij”は対応するAスキャン画像について加算平均処理を行うことにより算出された新たなAスキャン画像である。
Further, the determination unit 117 performs a process of combining the above (a) to (d) according to the moving distance per unit time in the sub-scanning direction. For example, when the moving distance is less than a predetermined value, the process (a) or (b) is used, and when the distance exceeds the predetermined value, the process (c) or (d) is performed. The combination of (a) and (d) can perform processing with an emphasis on speed, and the combination of (b) and (d) can perform processing with an emphasis on image quality.
<Step S212>
In step S212, the generation unit 118 performs an overlay process. Here, the superposition in the case of two A-scan images will be described. FIG. 3B is a diagram for explaining processing for processing a two-dimensional tomographic image for each A scan image and generating one two-dimensional tomographic image as a composite image. That is, an explanation will be given by taking as an example an addition averaging process of A-scan images that are imaged at different times and located on different two-dimensional tomographic images. FIG. 3C is a two-dimensional tomographic image with high image quality generated by performing an averaging process using M (two in this example) pixels for each pixel. That is, in FIG. 3C, A ij ″ is a new A scan image calculated by performing the averaging process on the corresponding A scan image.

図3(b)において、T’とTi+1’とは、同一断面をそれぞれ異なる時点で撮像した二次元断層画像である。Aij’、A(i+1)j’は、断層画像T’とTi+1’におけるそれぞれのAスキャン画像を表している。生成部118は、Aij’、A(i+1)j’のAスキャン画像について加算平均処理を行うことにより、図3(c)におけるAij”を算出する。なお、高画質な二次元断層画像(合成画像)の生成処理は、加算平均処理に限定されるものではなく、中央値算出処理、重み付加算平均処理などを用いてもよい。これらの処理を、基準画像T’のAスキャン画像(Ai1’からAim’まで)全てにおいて行う。例えば、重み付加加算平均処理では前述の類似度を加算の重みに用いる。 In FIG. 3B, T i ′ and T i + 1 ′ are two-dimensional tomographic images obtained by imaging the same cross section at different times. A ij ′ and A (i + 1) j ′ represent the respective A scan images in the tomographic images T i ′ and T i + 1 ′. The generation unit 118 calculates A ij ″ in FIG. 3C by performing addition averaging processing on the A scan images of A ij ′ and A (i + 1) j ′. Note that a high-quality two-dimensional tomographic image is obtained. The (composite image) generation process is not limited to the averaging process, and a median calculation process, a weighted averaging process, or the like may be used, which may be used as an A scan of the reference image T i ′. This is performed for all images (from A i1 ′ to A im ′) For example, in the weighted addition averaging process, the above-mentioned similarity is used as a weight for addition.

なお、本実施形態において、類似度を計算する領域はRij’とし、重ね合わせ処理は、Aij’で行う場合(Aスキャン画像単位)について説明を行ったが、本発明はこれに限らない。例えば、類似度を計算した領域単位で重ね合わせ処理を行っても良い。また、二次元断層画像で重ね合わせ処理を行ってよい。さらには、αを0(α=0の場合、Rij’=Aij’)として、Aスキャン画像単位で類似度を計算して判定を行い、重ね合わせをしても良い。
<ステップS205>
ステップS205では、表示制御部114は、ステップS204で生成した高画質な二次元断層画像を不図示の表示部に表示する。また、断層画像撮影装置120の測定光の走査範囲を固定して、ほぼ同一の網膜の領域を走査する例を説明したが、網膜全体を順次走査しても本発明を適用できることは上述したとおりである。
In the present embodiment, the region in which the similarity is calculated is R ij ′, and the overlay processing is performed in A ij ′ (A scan image unit). However, the present invention is not limited to this. . For example, the overlay process may be performed in units of regions where the similarity is calculated. Further, the overlay process may be performed with a two-dimensional tomographic image. Furthermore, α may be set to 0 (in the case of α = 0, R ij ′ = A ij ′), the degree of similarity may be calculated and determined for each A-scan image unit, and superposition may be performed.
<Step S205>
In step S205, the display control unit 114 displays the high-quality two-dimensional tomographic image generated in step S204 on a display unit (not shown). Further, the example in which the scanning range of the measurement light of the tomographic imaging apparatus 120 is fixed and almost the same retina region is scanned has been described. However, as described above, the present invention can be applied even when the entire retina is sequentially scanned. It is.

以上の説明から明らかなように、本実施形態では、位置合わせを行った複数の二次元断層画像において、対応するAスキャン画像と周辺の領域を用いて領域間の類似度を計算し、各領域単位で重ね合わせ処理に用いる領域の判定を行った。それにより、画像全体では位置が合っているが、固視微動などにより、二次元断層画像内の網膜層が変形している場合においても、部分領域単位で重ね合わせ処理に用いる領域の判定を行うので、高画質化された二次元断層画像を生成することができる。   As is clear from the above description, in this embodiment, in a plurality of aligned two-dimensional tomographic images, the similarity between the regions is calculated using the corresponding A scan image and the peripheral region, and each region is calculated. The region used for the overlay process was determined in units. As a result, the entire image is in position, but even when the retinal layer in the two-dimensional tomographic image is deformed due to fixation micromotion, etc., the region used for the overlay process is determined in units of partial regions. Therefore, a high-quality two-dimensional tomographic image can be generated.

本実施形態によれば、固視微動などにより、二次元断層画像内の網膜層が変形している場合においても高画質な二次元断層画像を取得することが可能となる。 ここで、高画質な画像とは一度の撮影と比較してS/N比が向上している画像をいう。または、診断に必要な情報量が増えている画像のことをいう。
(実施例2)
上記第1の実施形態では、位置合わせを行った二次元断層画像において、対応するAスキャン画像と周辺の領域を用いて領域間の類似度を計算し、各領域単位で重ね合わせ処理に用いる領域の判定を行った。本実施形態では、位置合わせを行った二次元断層画像において、Aスキャン画像と周辺の領域を用いて、近傍領域において評価値が高くなる領域を探索し、重ね合わせ処理を行うことを特徴としている。本実施形態によれば、大局的な特徴を用いて全体的に位置合わせを行い、さらに局所的な特徴を用いて位置合わせを行った後に、重ね合わせ処理を行う。
According to the present embodiment, it is possible to acquire a high-quality two-dimensional tomographic image even when the retinal layer in the two-dimensional tomographic image is deformed due to fixation micromotion or the like. Here, a high-quality image means an image in which the S / N ratio is improved as compared with one-time shooting. Or it refers to an image in which the amount of information necessary for diagnosis is increasing.
(Example 2)
In the first embodiment, in the two-dimensional tomographic image that has been aligned, the similarity between the regions is calculated using the corresponding A-scan image and the surrounding region, and the region used for the overlay process in units of each region Judgment was made. The present embodiment is characterized in that, in the aligned two-dimensional tomographic image, using the A-scan image and the peripheral region, a region having a high evaluation value in the vicinity region is searched for, and the overlay process is performed. . According to the present embodiment, alignment is performed using global features as a whole, and after performing alignment using local features, the overlay process is performed.

図6は、本実施形態に係る画像処理装置610を備える画像処理システム600の構成を示す図である。図6に示すように、画像処理装置610は、取得部111、記憶部112、画像処理部613、表示制御部114とを備える。このうち、画像処理部613以外は、上記第1の実施形態と同様の機能を有するため、ここでは説明を省略する。   FIG. 6 is a diagram illustrating a configuration of an image processing system 600 including the image processing apparatus 610 according to the present embodiment. As illustrated in FIG. 6, the image processing apparatus 610 includes an acquisition unit 111, a storage unit 112, an image processing unit 613, and a display control unit 114. Among these, since functions other than the image processing unit 613 have the same functions as those of the first embodiment, description thereof is omitted here.

画像処理部613において、第二の位置合わせ部619は、Aスキャン画像と周囲の領域を用いて局所的な位置合わせを行う。   In the image processing unit 613, the second alignment unit 619 performs local alignment using the A-scan image and the surrounding area.

以下、図7、図8を参照して本実施形態の画像処理装置610の処理手順を示す。なお、ステップS704以外は、第1実施形態のステップS201〜ステップS203とステップS205と同様なので説明は省略する。
<ステップS704>
ステップS704では、画像処理部613が、大局的な位置合わせと局所的な位置合わせを行い、画像重ね合わせ処理を行うことで、高画質な二次元断層画像を生成する。高画質な二次元断層画像生成処理について、図7(b)を参照して説明する。
<ステップS710>
ステップS710では、第一の位置合わせ部115において、二次元断層画像同士の位置合わせを行う。この処理は、第1実施形態のステップS210と同様なので、説明は省略する。
<ステップS711>
ステップS710で大局的な位置合わせを行った二次元断層画像において、対応するAスキャン画像単位で位置合わせを行うことにより、局所的な位置合わせを行う。この処理について図8(a)を用いて説明を行う。T’とTi+1’は、同一断面を異なる時点で撮像した画像で、ステップS710において位置合わせを行った二次元断層画像である。Aij’はT’におけるAスキャン画像を表している。斜線の領域Rij”はAij’を中心にx軸方向に+−αの範囲を表している。R(i+1)j”は、Ti+1’においてRij”に対応する矩形領域を表しており、S(i+1)j’は、R(i+1)j”の矩形領域を動かす探索範囲を表している。基準Aスキャン画像をAij’とし、類似度を計算する領域をRij”とする場合、探索範囲S(i+1)j’内において、R(i+1)j”の矩形領域を走査して、算出部116が評価値を計算する。
Hereinafter, a processing procedure of the image processing apparatus 610 according to the present embodiment will be described with reference to FIGS. 7 and 8. Since steps other than step S704 are the same as steps S201 to S203 and step S205 of the first embodiment, description thereof will be omitted.
<Step S704>
In step S704, the image processing unit 613 generates a high-quality two-dimensional tomographic image by performing global alignment and local alignment and performing image overlay processing. A high-quality two-dimensional tomographic image generation process will be described with reference to FIG.
<Step S710>
In step S710, the first alignment unit 115 aligns the two-dimensional tomographic images. Since this process is the same as step S210 of the first embodiment, a description thereof will be omitted.
<Step S711>
In the two-dimensional tomographic image that has been globally aligned in step S710, local alignment is performed by performing alignment for each corresponding A-scan image. This process will be described with reference to FIG. T i ′ and T i + 1 ′ are images obtained by capturing the same cross section at different points in time, and are two-dimensional tomographic images that have been aligned in step S710. A ij ′ represents an A-scan image at T i ′. A hatched region R ij ″ represents a range of + −α in the x-axis direction centering on A ij ′. R (i + 1) j ″ represents a rectangular region corresponding to R ij ″ in T i + 1 ′. S (i + 1) j ′ represents a search range for moving the rectangular region of R (i + 1) j ″. When the reference A-scan image is A ij ′ and the region for calculating the similarity is R ij ″, calculation is performed by scanning a rectangular region of R (i + 1) j ″ within the search range S (i + 1) j ′. The unit 116 calculates an evaluation value.

評価値は、Rij”とR(i+1)j”で画素値の相関を算出部116が計算して判定部117が評価を行う。あるいは、網膜層境界を検出することで層厚を検出し、その層厚を用いて類似度の評価値を算出部116が計算する。層厚を用いて類似度を評価する場合を図8(b)に示す。図8(b)は、探索範囲S(i+1)j’内における網膜層境界(内境界膜L、網膜色素上皮層L)と、網膜層境界から求めた層厚1〜3を表している。矩形領域R(i+1)j”において各Aスキャン画像上の層厚を求める。そして、Rij”とR(i+1)j”内の層厚同士を比較することで評価値を算出部116が計算する。層厚を計算するのに用いる層は上記に限定されるものではなく、神経線維層、視細胞内節外節接合部など、他の層境界を用いて層厚を比較しても良い。 As the evaluation value, the calculation unit 116 calculates the correlation between the pixel values of R ij ″ and R (i + 1) j ″, and the determination unit 117 performs the evaluation. Alternatively, the layer thickness is detected by detecting the retinal layer boundary, and the calculation unit 116 calculates the evaluation value of the similarity using the layer thickness. FIG. 8B shows a case where the similarity is evaluated using the layer thickness. FIG. 8B shows retinal layer boundaries (inner boundary film L 1 , retinal pigment epithelial layer L 2 ) in the search range S (i + 1) j ′ and layer thicknesses 1 to 3 obtained from the retinal layer boundaries. Yes. In the rectangular region R (i + 1) j ″, the layer thickness on each A-scan image is obtained. Then, the calculation unit 116 calculates the evaluation value by comparing the layer thicknesses in R ij ″ and R (i + 1) j ″. The layer used for calculating the layer thickness is not limited to the above, and the layer thickness may be compared using other layer boundaries such as a nerve fiber layer and a joint node between outer and outer segments of photoreceptor cells. .

なお、本実施形態において、判定部117による重ね合わせ判定の処理を省略したが、Aスキャン画像単位の位置合わせを行った後に、実施例1と同様に類似度により重ね合わせを行うか否かの判定を行うようにしても良い。
<ステップS712>
ステップS712では、生成部118において、対応するAスキャン画像同士の重ね合わせ処理を行う。生成部118では、ステップS711において、評価値が最大となる位置の矩形領域R(i+1)j”の中心に位置するAスキャン画像と、基準画像のAスキャン画像Aij’との重ね合わせ処理を行う。
In the present embodiment, the overlay determination process by the determination unit 117 is omitted. However, whether or not the overlay is performed based on the similarity as in the first embodiment after performing the alignment for each A-scan image. The determination may be performed.
<Step S712>
In step S <b> 712, the generation unit 118 performs overlapping processing of corresponding A scan images. In step S711, the generation unit 118 performs a superimposition process on the A scan image located at the center of the rectangular region R (i + 1) j ″ where the evaluation value is maximum and the A scan image A ij ′ of the reference image. Do.

なお、本実施形態においてRij”は、Aスキャン画像位置を中心に+−αの範囲を矩形領域として設定した。この設定方法として、αは固定値ではなく、二次元断層画像に写っている網膜層の画像特徴に応じて動的に変更するようにしても良い。領域設定の例を図8(c)に示す。例えば、網膜層の形状が平面的であるような場合には、αの範囲を広く設定する(R(i+1)j”)。網膜層の形状が湾曲している、二次元断層画像中に特徴的な箇所(垂直、水平エッジが多数存在)がある場合には、αの範囲を狭く設定する(R(i+1)k”)。領域範囲の設定は、画像特徴から症例毎に変更しても良いし、1枚の二次元断層画像内においてAスキャン画像単位で変更しても良い。 In the present embodiment, R ij ″ is set as a rectangular region with a range of + −α centered on the position of the A scan image. As this setting method, α is not a fixed value but is shown in the two-dimensional tomographic image. An example of region setting is shown in Fig. 8C. For example, when the shape of the retinal layer is planar, α Is set wide (R (i + 1) j ″). When there is a characteristic portion (a large number of vertical and horizontal edges) in the two-dimensional tomographic image in which the shape of the retinal layer is curved, the range of α is set narrow (R (i + 1) k ″). The setting of the region range may be changed for each case from the image characteristics, or may be changed for each A-scan image in one two-dimensional tomographic image.

以上の説明から明らかなように、本実施形態では、位置合わせを行った二次元断層画像において、Aスキャン画像と周辺の領域を用いて、近傍領域において評価値が高くなる領域を探索し、重ね合わせ処理を行った。それにより、画像全体では位置が合っているが、固視微動などにより、二次元断層画像内の網膜層が変形している場合においても、局所単位で位置合わせ処理を行うので、高画質な二次元断層画像を生成することができる。
(その他の実施形態)
上記のそれぞれの実施形態は、本発明を画像処理装置として実現したものである。しかしながら、本発明の実施形態は画像処理装置のみに限定されるものではない。本発明をコンピュータ上で動作するソフトウェアとして実現することも可能である。画像処理装置のCPUは、RAMやROMに格納されたコンピュータプログラムやデータを用いてコンピュータ全体の制御を行う。また、画像処理装置の各部に対応するソフトウェアの実行を制御して、各部の機能を実現する。
As is clear from the above description, in the present embodiment, in the aligned two-dimensional tomographic image, an area where the evaluation value is high in the neighboring area is searched using the A-scan image and the peripheral area, and overlapped. The combination process was performed. As a result, the entire image is aligned, but even when the retinal layer in the two-dimensional tomographic image is deformed due to fixation micromotion, etc., the alignment processing is performed in local units, so that high-quality A dimensional tomographic image can be generated.
(Other embodiments)
Each of the above embodiments implements the present invention as an image processing apparatus. However, the embodiment of the present invention is not limited only to the image processing apparatus. The present invention can also be realized as software that runs on a computer. The CPU of the image processing apparatus controls the entire computer using computer programs and data stored in RAM and ROM. In addition, the execution of software corresponding to each unit of the image processing apparatus is controlled to realize the function of each unit.

110 画像処理装置
120 断層画像撮影装置
112 記憶部
113 画像処理部
114 表示制御部
115 第一の位置合わせ部
116 算出部
117 判定部
118 生成部
619 第二の位置合わせ部
DESCRIPTION OF SYMBOLS 110 Image processing apparatus 120 Tomography apparatus 112 Storage part 113 Image processing part 114 Display control part 115 1st alignment part 116 Calculation part 117 Judgment part 118 Generation part 619 2nd alignment part

Claims (5)

同一位置を複数回走査するように制御されたOCT(Optical Coherence Tomography)の測定光に基づいて得られた被検眼の眼底の複数の断層画像が位置合わせされた後に、前記複数の断層画像それぞれにおけるAスキャン方向に対して直交する方向に所定の幅を有する前記断層画像の一部の領域である部分領域間の類似度を算出する算出手段と、
前記算出手段により算出された類似度が所定値よりも高い前記部分領域に含まれるAスキャン画像を前記複数の断層画像間において対応する複数のAスキャン画像から選択する選択手段と、
前記選択手段により選択された複数のAスキャン画像から1のAスキャン画像を生成する生成手段と、
を備え、前記Aスキャン方向に対して直交する方向における前記部分領域の幅はAスキャン画像の幅よりも大きいことを特徴とする画像処理装置。
After a plurality of tomographic image measuring the light onto the eye obtained based fundus of the same position is controlled so as to scan a plurality of times OCT (Optical Coherence Tomography) are aligned, in each of the plurality of tomographic images Calculating means for calculating a similarity between partial areas that are partial areas of the tomographic image having a predetermined width in a direction orthogonal to the A-scan direction;
Selection means for selecting an A-scan image included in the partial area having a similarity calculated by the calculation means higher than a predetermined value from a plurality of corresponding A-scan images among the plurality of tomographic images;
Generating means for generating one A scan image from a plurality of A scan images selected by the selecting means;
An image processing apparatus, wherein a width of the partial area in a direction orthogonal to the A scan direction is larger than a width of the A scan image.
前記部分領域はAスキャン画像を中心とした領域であり、前記部分領域に含まれるAスキャン画像は前記部分領域の中心のAスキャン画像であることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the partial area is an area centered on an A-scan image, and the A-scan image included in the partial area is an A-scan image at the center of the partial area. . 前記算出手段は、前記Aスキャン方向に対して直交する方向における異なる複数の位置の前記部分領域において前記類似度を算出し、
前記選択手段は、前記Aスキャン方向に対して直交する方向における異なる複数の位置の前記部分領域において前記Aスキャン画像を選択することを特徴とする請求項1または請求項2に記載の画像処理装置。
The calculating means calculates the similarity in the partial regions at a plurality of different positions in a direction orthogonal to the A-scan direction;
The image processing apparatus according to claim 1, wherein the selection unit selects the A scan image in the partial areas at different positions in a direction orthogonal to the A scan direction. .
プロセッサにより、同一位置を複数回走査するように制御されたOCT(Optical Coherence Tomography)の測定光に基づいて得られた被検眼の眼底の複数の断層画像が位置合わせされた後に、前記複数の断層画像それぞれにおけるAスキャン方向に対して直交する方向に所定の幅を有する前記断層画像の一部の領域である部分領域間の類似度を算出する算出工程と、
プロセッサにより、前記算出手段により算出された類似度が所定値よりも高い前記部分領域に含まれるAスキャン画像を複数の断層画像間において対応する複数のAスキャン画像から選択する選択工程と、
プロセッサにより、前記選択手段により選択された複数のAスキャン画像から1のAスキャン画像を生成する生成工程と、
を備える画像処理方法。
After the plurality of tomographic images of the fundus of the eye to be examined obtained based on the measurement light of OCT (Optical Coherence Tomography) controlled to scan the same position multiple times by the processor, the plurality of tomographic images are aligned. A calculation step of calculating a similarity between partial areas that are partial areas of the tomographic image having a predetermined width in a direction orthogonal to the A-scan direction in each of the images ;
A selection step of selecting an A-scan image included in the partial area having a similarity calculated by the calculation unit higher than a predetermined value by a processor from a plurality of corresponding A-scan images among a plurality of tomographic images;
A generating step of generating one A-scan image from a plurality of A-scan images selected by the selection means by a processor;
An image processing method comprising:
請求項4に記載の画像処理方法をコンピュータに実行させるプログラム。 Program for executing the image processing method according to the computer to claim 4.
JP2016141601A 2016-07-19 2016-07-19 Image processing apparatus, image processing method, and program Expired - Fee Related JP6419115B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016141601A JP6419115B2 (en) 2016-07-19 2016-07-19 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016141601A JP6419115B2 (en) 2016-07-19 2016-07-19 Image processing apparatus, image processing method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2010131257A Division JP6039156B2 (en) 2010-06-08 2010-06-08 Image processing apparatus, image processing method, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018192764A Division JP6720267B2 (en) 2018-10-11 2018-10-11 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2016179348A JP2016179348A (en) 2016-10-13
JP6419115B2 true JP6419115B2 (en) 2018-11-07

Family

ID=57130718

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016141601A Expired - Fee Related JP6419115B2 (en) 2016-07-19 2016-07-19 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP6419115B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7535442B2 (en) * 2020-11-27 2024-08-16 日産自動車株式会社 Vehicle assistance method and vehicle assistance device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005034332A1 (en) * 2005-07-22 2007-01-25 Carl Zeiss Meditec Ag Apparatus and method for observation, documentation and / or diagnosis of the ocular fundus
JP5523658B2 (en) * 2007-03-23 2014-06-18 株式会社トプコン Optical image measuring device
EP1978394A1 (en) * 2007-04-06 2008-10-08 Global Bionic Optics Pty Ltd. Optical system for increasing depth of field
JP5199031B2 (en) * 2008-11-05 2013-05-15 株式会社ニデック Ophthalmic imaging equipment

Also Published As

Publication number Publication date
JP2016179348A (en) 2016-10-13

Similar Documents

Publication Publication Date Title
JP6039156B2 (en) Image processing apparatus, image processing method, and program
JP5025715B2 (en) Tomographic imaging apparatus, image processing apparatus, image processing system, control method and program for image processing apparatus
KR102543875B1 (en) Medical image processing apparatus, medical image processing method, computer readable medium, and trained model
JP5404358B2 (en) Image processing apparatus, image processing method, and program
JP6025311B2 (en) Ophthalmic diagnosis support apparatus and method
US20110137157A1 (en) Image processing apparatus and image processing method
US10165939B2 (en) Ophthalmologic apparatus and ophthalmologic apparatus control method
JP6207225B2 (en) Image processing apparatus and image processing method
JP6128841B2 (en) Image processing device
JP2015160105A (en) Image processing device, image processing method and program
JP2021069667A (en) Image processing device, image processing method and program
JP2019047841A (en) Image processing device, image processing method, and program
JP6419115B2 (en) Image processing apparatus, image processing method, and program
JP2019047838A (en) Image processing device, positioning method, and program
JP6720267B2 (en) Image processing apparatus, image processing method, and program
JP5634587B2 (en) Image processing apparatus, image processing method, and program
JP5631361B2 (en) Image processing apparatus, image processing method, and program
JP2020093125A (en) Image processing device, image processing method and program
WO2015129718A1 (en) Image processing device, image processing method and image processing program
JP2025059638A (en) OCT image processing device and OCT image processing program
JP2013144236A (en) Ophthalmic apparatus and ophthalmic method
JP2018202237A (en) Image processing device and method for controlling the same

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160809

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170718

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170919

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180511

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180911

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181009

R151 Written notification of patent or utility model registration

Ref document number: 6419115

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees