[go: up one dir, main page]

JP2021086263A - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP2021086263A
JP2021086263A JP2019213099A JP2019213099A JP2021086263A JP 2021086263 A JP2021086263 A JP 2021086263A JP 2019213099 A JP2019213099 A JP 2019213099A JP 2019213099 A JP2019213099 A JP 2019213099A JP 2021086263 A JP2021086263 A JP 2021086263A
Authority
JP
Japan
Prior art keywords
information
image
subspace
pixel value
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019213099A
Other languages
Japanese (ja)
Other versions
JP7419037B2 (en
Inventor
啓太 中込
Keita Nakagome
啓太 中込
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Canon Medical Systems Corp
Original Assignee
Canon Inc
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc, Canon Medical Systems Corp filed Critical Canon Inc
Priority to JP2019213099A priority Critical patent/JP7419037B2/en
Publication of JP2021086263A publication Critical patent/JP2021086263A/en
Priority to JP2024001746A priority patent/JP7623526B2/en
Application granted granted Critical
Publication of JP7419037B2 publication Critical patent/JP7419037B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

To provide a technology for accurately extracting information on a shape of an area of interest from a medical image.SOLUTION: An image processing apparatus for estimating shape information, which is information on a shape of an area of interest, from an image includes: image acquisition means which acquires a first image to be processed; partial space information acquisition means which acquires two or more pieces of partial space information generated with different datasets; partial space information selection means which selects first partial space information from the two or more pieces of partial space information, on the basis of pixel value information of the first image; and estimation means which estimates shape information of an area of interest in the first image from the pixel value information of the first image, by use of the first partial space information. The dataset includes sample data including pixel value information of a learning image and the shape information of the area of interest.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理装置、画像処理方法、及びプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program.

医用の分野では、超音波画像診断装置などの種々の画像撮像装置(モダリティ)によって取得される画像を用いた診断が行われている。この診断の中では、画像に写る注目領域の面積、体積、寸法などの情報を診断に利用することが行われているが、領域の面積などを算出するためには、画像から当該領域の輪郭を抽出する(輪郭形状を表す情報である輪郭情報を推定する)必要がある。しかし、この領域抽出の作業を人手で行う場合、当該作業者に多大な労力を強いることが課題となっている。このことから、作業者の労力を軽減するために、画像からの自動または半自動の領域抽出技術に関して、かねてより様々な技術が提案されている。 In the medical field, diagnosis is performed using images acquired by various image imaging devices (modality) such as an ultrasonic diagnostic imaging device. In this diagnosis, information such as the area, volume, and dimensions of the region of interest reflected in the image is used for the diagnosis, but in order to calculate the area of the region, the contour of the region is used from the image. It is necessary to extract (estimate the contour information which is the information representing the contour shape). However, when the work of extracting this area is performed manually, it is a problem to impose a great deal of labor on the worker. For this reason, various techniques have been proposed for automatic or semi-automatic area extraction techniques from images in order to reduce the labor of workers.

一例では、次の先行技術のように、画像と、該画像に写る注目領域の正解の輪郭情報を多数の症例について収集したものを学習データとして利用する方法がある。この技術では、学習データに対して統計解析を行った結果に基づいて、未知の入力画像に写る注目領域の輪郭情報を推定する(すなわち、輪郭を抽出する)ことが行われている。非特許文献1には、学習データの画像の画素値の情報と、該画像に写る注目領域の輪郭を表す点群の座標値の情報に基づいて、Active Appearance Modelと呼ばれる統計モデルを構築する技術が開示されている。さらに、未知の入力画像の画素値情報と、前記統計モデルにおける画像の画素値情報との類似性を表す評価値を利用して、勾配法による反復処理を用いて前記入力画像に写る注目領域の輪郭情報を推定する技術も併せて開示されている。 As an example, as in the following prior art, there is a method of using an image and the contour information of the correct answer of the region of interest shown in the image collected for a large number of cases as learning data. In this technique, the contour information of the region of interest reflected in the unknown input image is estimated (that is, the contour is extracted) based on the result of statistical analysis of the training data. Non-Patent Document 1 describes a technique for constructing a statistical model called an Active Appearance Model based on information on pixel values of an image of training data and information on coordinate values of a point cloud representing the outline of a region of interest in the image. Is disclosed. Further, using the evaluation value indicating the similarity between the pixel value information of the unknown input image and the pixel value information of the image in the statistical model, the region of interest reflected in the input image is subjected to iterative processing by the gradient method. A technique for estimating contour information is also disclosed.

Elco Oost,et.al.”Active Appearance Models in Medical Image Processing” Medical Imaging Technology.vol.27.No3.2009 May.Elco Ost, et. al. "Active Appearance Models in Medical Image Processing" Medical Imaging Technology. vol. 27. No3.2009 May.

統計モデルを用いた推定処理では、学習データに含まれるサンプルデータ群に近い画像が入力された場合は尤もらしい推定結果が得られるが、サンプルデータ群から離れた画像が入力された場合に稀に不適切な推定結果が出力されてしまうことがある。一般に、統計モデルを生成する際には、学習データのバリエーションを可能な限り多くすることが望ましいとされている。これは、学習データのバリエーションが増えるほどに、統計モデルの汎化能力が上がり、より多くの未知データに対応できるようになると期待されるからである。しかしながら、学習データのバリエーションを増やして統計モデルの汎化能力を上げるほど、前述の不適切な推定結果が出力されることがあった。 In the estimation process using the statistical model, a plausible estimation result can be obtained when an image close to the sample data group included in the training data is input, but rarely when an image away from the sample data group is input. Inappropriate estimation results may be output. In general, when generating a statistical model, it is desirable to have as many variations of training data as possible. This is because it is expected that as the variation of the training data increases, the generalization ability of the statistical model will increase and it will be possible to handle more unknown data. However, as the variation of the training data is increased and the generalization ability of the statistical model is increased, the above-mentioned inappropriate estimation result may be output.

本発明は上記課題に鑑みてなされたものであり、医用画像から注目領域の形状に関する情報を、より精度良く抽出することができる技術を提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique capable of extracting information on the shape of a region of interest from a medical image with higher accuracy.

なお、前記目的に限らず、後述する発明を実施するための形態に示す各構成により導かれる作用効果であって、従来の技術によっては得られない作用効果を奏することも本明細
書の開示の他の目的の1つとして位置付けることができる。
It should be noted that not only the above-mentioned purpose but also the action and effect derived by each configuration shown in the embodiment for carrying out the invention described later, and the action and effect which cannot be obtained by the conventional technique can be obtained. It can be positioned as one of the other purposes.

本発明の第一態様は、画像から注目領域の形状に関する情報である形状情報を推定する画像処理装置であって、処理対象となる第1の画像を取得する画像取得手段と、異なるデータセットを用いて生成された2つ以上の部分空間の情報を取得する部分空間情報取得手段と、前記第1の画像の画素値情報に基づいて、前記2つ以上の部分空間の情報から第1の部分空間の情報を選択する部分空間情報選択手段と、前記第1の部分空間の情報を用いて、前記第1の画像の画素値情報から前記第1の画像中の注目領域の形状情報を推定する推定手段と、を有し、前記データセットは学習用の画像の画素値情報と注目領域の形状情報とを含んで構成されるサンプルデータを含むものであることを特徴とする画像処理装置を提供する。 The first aspect of the present invention is an image processing device that estimates shape information that is information about the shape of a region of interest from an image, and uses a data set different from that of an image acquisition means that acquires a first image to be processed. A first portion from the information of the two or more subspaces based on the subspace information acquisition means for acquiring the information of the two or more subspaces generated by the method and the pixel value information of the first image. Using the subspace information selection means for selecting spatial information and the information in the first subspace, the shape information of the region of interest in the first image is estimated from the pixel value information of the first image. Provided is an image processing apparatus comprising an estimation means, wherein the data set includes sample data including pixel value information of an image for learning and shape information of a region of interest.

本発明の第二態様は、画像から注目領域の形状に関する情報である形状情報を推定する画像処理方法であって、処理対象となる第1の画像を取得するステップと、異なるデータセットを用いて生成された2つ以上の部分空間の情報を取得するステップと、前記第1の画像の画素値情報に基づいて、前記2つ以上の部分空間の情報から第1の部分空間の情報を選択するステップと、前記第1の部分空間の情報を用いて、前記第1の画像の画素値情報から前記第1の画像中の注目領域の形状情報を推定するステップと、を有し、前記データセットは学習用の画像の画素値情報と注目領域の形状情報とを含んで構成されるサンプルデータを含むものであることを特徴とする画像処理方法を提供する。 A second aspect of the present invention is an image processing method for estimating shape information which is information about the shape of a region of interest from an image, using a step of acquiring a first image to be processed and a different data set. Based on the step of acquiring the generated information of the two or more subspaces and the pixel value information of the first image, the information of the first subspace is selected from the information of the two or more subspaces. The data set includes a step and a step of estimating the shape information of the region of interest in the first image from the pixel value information of the first image using the information of the first subspace. Provides an image processing method characterized in that it includes sample data including pixel value information of an image for learning and shape information of a region of interest.

本発明の第三態様は、コンピュータを、上記第一態様に係る画像処理装置の各手段として機能させるためのプログラム、もしくは、コンピュータに、上記第二態様に係る画像処理方法の各ステップを実行させるためのプログラム、又は、かかるプログラムを非一時的に記憶したコンピュータ読取可能な記憶媒体を提供する。 The third aspect of the present invention is a program for causing the computer to function as each means of the image processing apparatus according to the first aspect, or causing the computer to execute each step of the image processing method according to the second aspect. To provide, or a computer-readable storage medium in which such a program is stored non-temporarily.

本発明によれば、医用画像から注目領域の形状に関する情報を、より精度良く抽出することができる。 According to the present invention, information regarding the shape of the region of interest can be extracted more accurately from the medical image.

画像処理装置の機能の構成を示す図。The figure which shows the structure of the function of an image processing apparatus. 画像処理装置の処理手順の例を示すフローチャート。The flowchart which shows the example of the processing procedure of an image processing apparatus. 心臓の超音波画像の例を示す図。The figure which shows the example of the ultrasonic image of the heart. 心臓の超音波画像における注目領域の輪郭を表す点群の例を示す図。The figure which shows the example of the point group which shows the outline of the region of interest in the ultrasonic image of a heart.

以下、図面を参照して、本発明の実施形態を例示的に詳しく説明する。ただし、この実施形態に記載されている構成要素はあくまで例示であり、本発明の技術的範囲は、特許請求の範囲によって確定されるのであって、以下の個別の実施形態によって限定されるわけではない。 Hereinafter, embodiments of the present invention will be described in detail exemplarily with reference to the drawings. However, the components described in this embodiment are merely examples, and the technical scope of the present invention is determined by the scope of claims and is not limited by the following individual embodiments. Absent.

本発明の実施形態に係る画像処理装置は、入力画像から注目領域(ROI:Region of Interest)の形状に関する情報を推定する機能を提供する。処理対象となる入力画像は、医用画像、すなわち、医学的な診断、検査、研究などの目的で撮影ないし生成された被検体(人体など)の画像であり、典型的には、モダリティと呼ばれる撮像システムによって取得された画像である。例えば、超音波診断装置によって得られる超音波画像、X線CT装置によって得られるX線CT画像、MRI装置によって得られるMRI画像などが処理対象になり得る。入力画像は、2次元画像でも3次元画像でもよく、
また、1つの時相の画像でも複数の時相の画像でもよい。注目領域は、画像の中の一部の領域であり、例えば、解剖学的構造(臓器、血管、骨など)や病変などである。何を注目領域に選ぶかは任意に設定することができる。注目領域の形状に関する情報(本明細書において、「形状情報」とも称す)とは、画像における注目領域の空間的な(あるいは幾何学的な)特徴を表す情報である。例えば、注目領域の輪郭情報(輪郭形状を表す情報)、注目領域上の特徴点の位置や特徴点同士の相対位置(間隔など)、注目領域の長さ・面積・体積、注目領域のかたち(円形、楕円形、三角形など)などを例示できる。なお、画像から直接得られる一次情報だけでなく、一次情報を用いて生成される二次情報(例えば、特徴点の位置の差、2つの時相の間での面積比など)も、形状情報に含まれる。
The image processing apparatus according to the embodiment of the present invention provides a function of estimating information regarding the shape of a region of interest (ROI) from an input image. The input image to be processed is a medical image, that is, an image of a subject (human body, etc.) taken or generated for the purpose of medical diagnosis, examination, research, etc., and is typically an imaging image called a modality. This is an image acquired by the system. For example, an ultrasonic image obtained by an ultrasonic diagnostic apparatus, an X-ray CT image obtained by an X-ray CT apparatus, an MRI image obtained by an MRI apparatus, and the like can be processed. The input image may be a two-dimensional image or a three-dimensional image.
Further, an image of one time phase or an image of a plurality of time phases may be used. The region of interest is a portion of the image, such as an anatomical structure (organs, blood vessels, bones, etc.) or a lesion. What is selected as the area of interest can be set arbitrarily. The information regarding the shape of the region of interest (also referred to as "shape information" in the present specification) is information representing the spatial (or geometric) feature of the region of interest in the image. For example, contour information of the region of interest (information representing the contour shape), positions of feature points on the region of interest, relative positions between feature points (intervals, etc.), length / area / volume of the region of interest, shape of the region of interest (shape of the region of interest) A circle, an ellipse, a triangle, etc.) can be exemplified. Not only the primary information obtained directly from the image, but also the secondary information generated by using the primary information (for example, the difference in the position of the feature point, the area ratio between the two time phases, etc.) is also the shape information. include.

本発明の実施形態に係る画像処理装置は、異なるデータセットを用いて生成された2つ以上の部分空間の情報を取得し、その2つ以上の部分空間の情報から入力画像に適した部分空間の情報を選択して形状情報の推定を行う点に特徴の一つを有する。学習データを複数のデータセットに分けた場合、学習データ全体で統計解析を行う場合に比べて、統計モデル(部分空間)の表現力や汎化能力は劣る可能性があるが、不適切な推定結果が出力されるリスクは低下する。学習データとしては、各サンプルデータが学習用の画像の画素値情報とその学習用の画像中の注目領域の形状情報(正解データ)とを含んで構成されているデータを用いるとよい。このような学習データを用いることによって、画像の画素値情報と注目領域の形状情報との相関がよく反映されたモデルを得ることができ、推定精度の向上を図ることができる。 The image processing apparatus according to the embodiment of the present invention acquires information on two or more subspaces generated by using different data sets, and from the information on the two or more subspaces, a subspace suitable for an input image. It has one of the features in that the shape information is estimated by selecting the information of. When the training data is divided into multiple data sets, the expressive power and generalization ability of the statistical model (subspace) may be inferior to those when statistical analysis is performed on the entire training data, but it is an inappropriate estimation. The risk of output results is reduced. As the learning data, it is preferable to use data in which each sample data is composed of pixel value information of the image for learning and shape information (correct answer data) of the region of interest in the image for learning. By using such learning data, it is possible to obtain a model in which the correlation between the pixel value information of the image and the shape information of the region of interest is well reflected, and it is possible to improve the estimation accuracy.

以下では、2次元超音波画像から心臓の左心房の領域抽出を行うケースを例に挙げて、本発明の実施形態に係る画像処理装置の具体例を詳しく説明する。 In the following, a specific example of the image processing apparatus according to the embodiment of the present invention will be described in detail by taking as an example a case where the region of the left atrium of the heart is extracted from a two-dimensional ultrasonic image.

本実施形態に係る画像処理装置は、入力画像から注目領域である左心房の輪郭情報を自動的に抽出する機能を有している。本実施形態の画像処理装置は、処理対象の入力画像に応じて、学習データから構築した2つ以上の部分空間(統計モデル)のうちから適切な部分空間を選択し、選択した部分空間を用いて入力画像の注目領域の形状情報を推定する。 The image processing apparatus according to the present embodiment has a function of automatically extracting contour information of the left atrium, which is a region of interest, from an input image. The image processing apparatus of the present embodiment selects an appropriate subspace from two or more subspaces (statistical models) constructed from the training data according to the input image to be processed, and uses the selected subspace. The shape information of the region of interest of the input image is estimated.

以下、図1を用いて本実施形態の画像処理装置の構成及び処理を説明する。図1は、本実施形態の画像処理装置を含む画像処理システム(医用画像処理システムともいう)の構成例を示すブロック図である。画像処理システムは、画像処理装置10及びデータベース22を備える。画像処理装置10は、ネットワーク21を介してデータベース22に通信可能に接続されている。ネットワーク21は、例えば、LAN(Local Area Network)やWAN(Wide Area Network)を含む。 Hereinafter, the configuration and processing of the image processing apparatus of the present embodiment will be described with reference to FIG. FIG. 1 is a block diagram showing a configuration example of an image processing system (also referred to as a medical image processing system) including the image processing apparatus of the present embodiment. The image processing system includes an image processing device 10 and a database 22. The image processing device 10 is communicably connected to the database 22 via the network 21. The network 21 includes, for example, a LAN (Local Area Network) and a WAN (Wide Area Network).

データベース22は、複数の画像を保持し、管理する。データベース22で管理される画像は、注目領域の輪郭情報が未知の画像と、注目領域の輪郭情報が既知の画像とを含む。前者の画像は画像処理装置10による輪郭抽出処理に供される。後者の画像は、輪郭情報(正解データ)が関連付けられており、学習データとして利用される。なお、これらの画像は、画像の大きさや画像中に写る注目領域について、空間的にある程度の正規化がされたものであることが望ましい。空間的な正規化とは、画像中の大きさ(1画素当たりの寸法)及び位置をある基準に揃える操作である。データベース22で管理される情報には、輪郭抽出処理で用いる部分空間の情報(例えば推定行列の情報など)が含まれてもよい。部分空間の情報は、データベース22の代わりに、画像処理装置10の内部記憶(ROM32又は記憶部34)に記憶されていてもよい。画像処理装置10は、ネットワーク21を介してデータベース22で保持されているデータを取得することが可能である。 The database 22 holds and manages a plurality of images. The image managed in the database 22 includes an image in which the contour information of the region of interest is unknown and an image in which the contour information of the region of interest is known. The former image is subjected to contour extraction processing by the image processing device 10. The latter image is associated with contour information (correct answer data) and is used as learning data. It is desirable that these images are spatially normalized to some extent with respect to the size of the image and the region of interest appearing in the image. Spatial normalization is an operation of aligning the size (dimension per pixel) and position in an image with a certain standard. The information managed in the database 22 may include information on the subspace used in the contour extraction process (for example, information on the estimation matrix). The subspace information may be stored in the internal storage (ROM 32 or storage unit 34) of the image processing device 10 instead of the database 22. The image processing device 10 can acquire the data held in the database 22 via the network 21.

画像処理装置10は、通信IF(Interface)31(通信部)、ROM(Read Only Memory)32、RAM(Random Access Memo
ry)33、記憶部34、操作部35、表示部36、及び制御部37を備える。
The image processing device 10 includes a communication IF (Interface) 31 (communication unit), a ROM (Read Only Memory) 32, and a RAM (Random Access Memory).
ry) 33, a storage unit 34, an operation unit 35, a display unit 36, and a control unit 37 are provided.

通信IF31(通信部)は、LANカードなどにより構成され、外部装置(例えば、データベース22など)と画像処理装置10との通信を実現する。ROM32は、不揮発性のメモリなどにより構成され、各種プログラムや各種データを記憶する。RAM33は、揮発性のメモリなどにより構成され、実行中のプログラムやデータを一時的に記憶するワークメモリとして用いられる。記憶部34は、HDD(Hard Disk Drive)などにより構成され、各種プログラムや各種データを記憶する。操作部35は、キーボードやマウス、タッチパネルなどにより構成され、ユーザ(例えば、医師や検査技師)からの指示を各種装置に入力する。 The communication IF 31 (communication unit) is composed of a LAN card or the like, and realizes communication between an external device (for example, a database 22 or the like) and the image processing device 10. The ROM 32 is composed of a non-volatile memory or the like, and stores various programs and various data. The RAM 33 is composed of a volatile memory or the like, and is used as a work memory for temporarily storing a program or data being executed. The storage unit 34 is composed of an HDD (Hard Disk Drive) or the like, and stores various programs and various data. The operation unit 35 is composed of a keyboard, a mouse, a touch panel, and the like, and inputs instructions from a user (for example, a doctor or an examination engineer) to various devices.

表示部36は、ディスプレイなどにより構成され、各種情報をユーザに表示する。制御部37は、CPU(Central Processing Unit)などにより構成され、画像処理装置10における処理を統括制御する。制御部37は、その機能的な構成として、画像取得部51、部分空間情報取得部52、輪郭情報推定部53、及び表示処理部54を備える。制御部37は、GPU(Graphics Processing Unit)やDSP(Digital Signal Processor)やFPGA(Field−Programmable Gate Array)などを備えてもよい。 The display unit 36 is composed of a display or the like, and displays various information to the user. The control unit 37 is composed of a CPU (Central Processing Unit) or the like, and controls the processing in the image processing device 10 in an integrated manner. The control unit 37 includes an image acquisition unit 51, a subspace information acquisition unit 52, a contour information estimation unit 53, and a display processing unit 54 as its functional configuration. The control unit 37 may include a GPU (Graphics Processing Unit), a DSP (Digital Signal Processor), an FPGA (Field-Programmable Gate Array), and the like.

画像取得部51は、処理対象となる第1の画像(輪郭情報が未知の画像)をデータベース22から取得する。すなわち、画像取得部51は、第1の画像を取得する画像取得手段の一例に相当する。第1の画像は、各種モダリティにより取得された被検体の画像である。画像取得部51は、第1の画像をモダリティから直接取得してもよい。この場合、画像処理装置10はモダリティ(撮像システム)のコンソールの中に実装されていてもよい。本実施形態では、第1の画像が2次元の超音波画像である例を説明するが、他の種類の画像であってもよい。本実施形態の方法は、2次元以上の画像(複数の2次元画像、2次元の動画像、3次元の静止画像、複数の3次元画像、あるいは、3次元の動画像など)であっても適用可能である。また、モダリティの種類に依らず適用可能である。 The image acquisition unit 51 acquires a first image (an image whose contour information is unknown) to be processed from the database 22. That is, the image acquisition unit 51 corresponds to an example of an image acquisition means for acquiring a first image. The first image is an image of a subject acquired by various modality. The image acquisition unit 51 may acquire the first image directly from the modality. In this case, the image processing device 10 may be mounted in the console of the modality (imaging system). In the present embodiment, an example in which the first image is a two-dimensional ultrasonic image will be described, but other types of images may be used. The method of the present embodiment may be a two-dimensional or higher-dimensional image (a plurality of two-dimensional images, a two-dimensional moving image, a three-dimensional still image, a plurality of three-dimensional images, a three-dimensional moving image, or the like). Applicable. Moreover, it can be applied regardless of the type of modality.

部分空間情報取得部52は、学習データをデータベース22から取得し、この学習データを用いて2回以上の統計解析を行う。学習データを構成するサンプルデータの各々は、学習用の画像の画素値情報とその学習用の画像中の注目領域の形状情報とを含んだ構成のデータである(詳しくは後述する)。そして、部分空間情報取得部52は、統計解析の結果から、サンプルデータ群の分布を表す部分空間の情報(例えば、部分空間を構成する基底の情報)を算出する。このとき、部分空間情報取得部52は、学習データを2つ以上のデータセットに分け、異なるデータセットを用いて2つ以上の部分空間の情報を生成する。すなわち、部分空間情報取得部52は、学習データのうちの異なるデータセットを用いて生成された2つ以上の部分空間の情報を取得する部分空間情報取得手段の一例に相当する。 The subspace information acquisition unit 52 acquires learning data from the database 22, and performs statistical analysis two or more times using the learning data. Each of the sample data constituting the learning data is data having a configuration including the pixel value information of the image for learning and the shape information of the region of interest in the image for learning (details will be described later). Then, the subspace information acquisition unit 52 calculates the subspace information (for example, the base information constituting the subspace) representing the distribution of the sample data group from the result of the statistical analysis. At this time, the subspace information acquisition unit 52 divides the learning data into two or more data sets, and generates information on two or more subspaces using different data sets. That is, the subspace information acquisition unit 52 corresponds to an example of the subspace information acquisition means for acquiring the information of two or more subspaces generated by using different data sets of the training data.

部分空間情報選択部55は、画像取得部51で取得した第1の画像と、部分空間情報取得部52で取得した2つ以上の部分空間情報に基づいて、第1の画像から注目領域の輪郭情報を推定するために適した第1の部分空間情報を選択する。すなわち、部分空間情報選択部55は、第1の画像の画素値情報に基づいて、2つ以上の部分空間の情報から第1の部分空間情報を選択する部分空間情報選択手段の一例に相当する。 The subspace information selection unit 55 is based on the first image acquired by the image acquisition unit 51 and two or more subspace information acquired by the subspace information acquisition unit 52, and the outline of the region of interest from the first image. Select a first subspace information suitable for estimating the information. That is, the subspace information selection unit 55 corresponds to an example of the subspace information selection means for selecting the first subspace information from the information of two or more subspaces based on the pixel value information of the first image. ..

輪郭情報推定部53は、部分空間情報選択部55で選択した第1の部分空間情報を用いた演算によって、画像取得部51で取得した第1の画像から第1の画像中の左心房の輪郭情報を推定する。すなわち、輪郭情報推定部53は、第1の部分空間情報を用いて、第1の画像の画素値情報から第1の画像中の注目領域の形状情報を推定する推定手段の一例で
ある。
The contour information estimation unit 53 performs an operation using the first subspace information selected by the subspace information selection unit 55 to obtain the contour of the left atrium in the first image from the first image acquired by the image acquisition unit 51. Estimate the information. That is, the contour information estimation unit 53 is an example of an estimation means that estimates the shape information of the region of interest in the first image from the pixel value information of the first image by using the first subspace information.

表示処理部54は、輪郭情報推定部53により算出した結果に基づいて、第1の画像と推定した注目領域の輪郭情報を容易に視認できるような表示形態で、表示部36の画像表示領域内に表示させる。 The display processing unit 54 is in the image display area of the display unit 36 in a display form so that the contour information of the region of interest estimated as the first image can be easily visually recognized based on the result calculated by the contour information estimation unit 53. To display.

上記の画像処理装置10の各構成要素は、コンピュータプログラムに従って機能する。例えば、制御部37(CPU)がRAM33をワーク領域としてROM32又は記憶部34などに記憶されたコンピュータプログラムを読み込み、実行することで、各構成要素の機能が実現される。なお、画像処理装置10の構成要素の一部又は全ての機能が専用の回路を用いることで実現されてもよい。また、制御部37の構成要素の一部の機能が、クラウドコンピュータを用いることで実現されてもよい。例えば、画像処理装置10とは異なる場所にある演算装置がネットワーク21を介して画像処理装置10に通信可能に接続され、画像処理装置10と演算装置がデータの送受信を行うことで、画像処理装置10又は制御部37の構成要素の機能が実現されてもよい。 Each component of the image processing apparatus 10 functions according to a computer program. For example, the function of each component is realized by the control unit 37 (CPU) reading and executing the computer program stored in the ROM 32 or the storage unit 34 or the like with the RAM 33 as the work area. Note that some or all the functions of the components of the image processing device 10 may be realized by using a dedicated circuit. Further, some functions of the components of the control unit 37 may be realized by using a cloud computer. For example, an arithmetic unit located at a location different from the image processing apparatus 10 is communicably connected to the image processing apparatus 10 via the network 21, and the image processing apparatus 10 and the arithmetic unit transmit and receive data, whereby the image processing apparatus The function of the component of 10 or the control unit 37 may be realized.

次に、図2を用いて、図1の画像処理装置10の処理の例について説明する。図2は、画像処理装置10の処理手順の例を示すフローチャートである。本実施形態では、心臓の左心房領域を注目領域とした場合の例を説明する。ただし、本実施形態は左心室、右心室、右心房を含むその他の部位や、それら複数の領域を組み合わせた領域を注目領域とする場合にも適用可能である。 Next, an example of processing of the image processing apparatus 10 of FIG. 1 will be described with reference to FIG. FIG. 2 is a flowchart showing an example of a processing procedure of the image processing apparatus 10. In this embodiment, an example will be described in which the left atrium region of the heart is the region of interest. However, this embodiment can also be applied to other sites including the left ventricle, the right ventricle, and the right atrium, or a region in which a plurality of these regions are combined as a region of interest.

(ステップS101:画像の取得・表示)
ステップS101において、ユーザが操作部35を介して画像の取得を指示すると、画像取得部51は、ユーザが指定した第1の画像をデータベース22から取得し、RAM33に格納する。またこのとき、表示処理部54は、第1の画像を表示部36の画像表示領域内に表示させてもよい。ここで、第1の画像の例を図3に示す。図3は、第1の画像が心臓の超音波画像における心尖部四腔像である例を示している。なお、以下の説明では、第1の画像を構成するx方向の画素数はNx、y方向の画素数はNyであるものとする。すなわち、第1の画像を構成する全画素数はNx×Nyである。
(Step S101: Image acquisition / display)
In step S101, when the user instructs the acquisition of an image via the operation unit 35, the image acquisition unit 51 acquires the first image specified by the user from the database 22 and stores it in the RAM 33. At this time, the display processing unit 54 may display the first image in the image display area of the display unit 36. Here, an example of the first image is shown in FIG. FIG. 3 shows an example in which the first image is an image of the apex of the heart in an ultrasonic image of the heart. In the following description, it is assumed that the number of pixels in the x direction constituting the first image is Nx and the number of pixels in the y direction is Ny. That is, the total number of pixels constituting the first image is Nx × Ny.

(ステップS102:2つ以上の部分空間情報の取得)
ステップS102において、部分空間情報取得部52は、第1の画像とは異なる複数の画像に関して、画像の画素値情報(例えば画像データ)と、該画像における注目領域の正解の輪郭情報を、データベース22から取得する。すなわち、部分空間情報取得部52は、部分空間の情報を算出するために用いる学習データを取得する。なお、学習データとして用いる複数の画像は、統計モデルのロバスト性を高めるために、異なる患者を撮影した画像で構成することが望ましい。ただし、同一患者を異なる時期に撮影した画像が含まれていても構わない。あるいは、画像の変形・加工などにより、データオーグメンテーション(学習データの水増し)を行ってもよい。
(Step S102: Acquisition of two or more subspace information)
In step S102, the subspatial information acquisition unit 52 stores the pixel value information (for example, image data) of the image and the contour information of the correct answer of the region of interest in the image for a plurality of images different from the first image in the database 22. Get from. That is, the subspace information acquisition unit 52 acquires the learning data used for calculating the subspace information. It is desirable that the plurality of images used as training data are composed of images taken of different patients in order to enhance the robustness of the statistical model. However, images of the same patient taken at different times may be included. Alternatively, data augmentation (inflated learning data) may be performed by deforming or processing the image.

続いて、部分空間情報取得部52は、学習データとして取得した複数の画像の夫々について、画素値情報と、注目領域の輪郭情報と、を連結したデータを生成する。ここで、画像の画素値情報と、注目領域の輪郭情報について、図3乃至図4を用いて詳説する。 Subsequently, the subspace information acquisition unit 52 generates data in which the pixel value information and the contour information of the region of interest are concatenated for each of the plurality of images acquired as learning data. Here, the pixel value information of the image and the contour information of the region of interest will be described in detail with reference to FIGS. 3 to 4.

図3に示すように、本実施形態で扱う画像は、Nx×Ny個の画素で構成される画像である。本実施形態における画像の画素値情報とは、画像のラスタスキャン順に各画素の画素値を並べた列ベクトルを指すものとする。すなわち、図3に示す画像の左上を原点(0,0)として、画素(x,y)の場所における画素値をI(x,y)で表すものとして、該画像の画素値情報aを次のように定義する。

Figure 2021086263
As shown in FIG. 3, the image handled in this embodiment is an image composed of Nx × Ny pixels. The pixel value information of the image in the present embodiment refers to a column vector in which the pixel values of each pixel are arranged in the order of raster scan of the image. That is, assuming that the upper left of the image shown in FIG. 3 is the origin (0,0) and the pixel value at the location of the pixel (x, y) is represented by I (x, y), the pixel value information a of the image is as follows. It is defined as.
Figure 2021086263

次に、図4に示すのは、注目領域が左心房領域である場合に、該領域の輪郭情報を9点の点群(p1〜p9)で表す例である。本実施形態においては、これらの各点についても、画像の左上を原点(0,0)として、x軸とy軸の座標値を使って(x,y)で表すものとする。点p1を例に取ると、点p1の座標は、(x1,y1)である。本実施形態における注目領域の輪郭情報とは、注目領域の輪郭上に配置された複数の特徴点のx座標値とy座標値を並べた列ベクトルを指すものとする。すなわち、図4に示す例においては、左心房を表す輪郭情報bを次のように定義する。なお、「形状情報」が注目領域上の特徴点の位置の場合にも、b={x1,y1}のように、上記と同様に当該特徴点の座標値を並べた形式でbを定義すればよい。また、「形状情報」が注目領域の長さ(length)や面積(area)、体積(volume)の場合には、夫々、b=length、b=area、b=volumeなどそれらの値に基づいてbを定義すればよい。

Figure 2021086263
Next, FIG. 4 shows an example in which when the region of interest is the left atrium region, the contour information of the region is represented by a point cloud (p1 to p9) of 9 points. In the present embodiment, each of these points is also represented by (x, y) using the coordinate values of the x-axis and the y-axis with the upper left of the image as the origin (0,0). Taking point p1 as an example, the coordinates of point p1 are (x1, y1). The contour information of the region of interest in the present embodiment refers to a column vector in which the x-coordinate values and the y-coordinate values of a plurality of feature points arranged on the contour of the region of interest are arranged. That is, in the example shown in FIG. 4, the contour information b representing the left atrium is defined as follows. Even when the "shape information" is the position of the feature point on the region of interest, define b in a format in which the coordinate values of the feature points are arranged in the same manner as above, such as b = {x1, y1}. Just do it. When the "shape information" is the length (length), area (area), or volume (volume) of the region of interest, each of them is based on those values such as b = definition, b = area, and b = volume. b may be defined.
Figure 2021086263

画素値情報aと輪郭情報bを取得した後、部分空間情報取得部52は、これらの列ベクトルをさらに繋げて、2つの情報を連結した1つの列ベクトルを生成する。すなわち、部分空間情報取得部52は、画素値情報aに対応する要素と注目領域の輪郭情報b(形状情報)に対応する要素とを含んで構成される列ベクトルを生成する。図3乃至図4に示す例においては、次のようなデータcが生成される。

Figure 2021086263
After acquiring the pixel value information a and the contour information b, the subspace information acquisition unit 52 further connects these column vectors to generate one column vector in which the two pieces of information are concatenated. That is, the subspace information acquisition unit 52 generates a column vector composed of an element corresponding to the pixel value information a and an element corresponding to the contour information b (shape information) of the region of interest. In the examples shown in FIGS. 3 to 4, the following data c is generated.
Figure 2021086263

ここで、画像の画素値情報と、注目領域の輪郭情報とでは、分散の大きさが異なるため、少なくとも一方のデータに対して重み付けを行ってもよい。このとき、学習データの画素値情報と輪郭情報の夫々の全分散の大きさに応じて、全分散が同等、あるいは既定のバランスになるように重み付けしてもよい。あるいは、操作部35を介してユーザが設定する重みを用いてデータの重み付けを行ってもよい。 Here, since the size of the variance differs between the pixel value information of the image and the contour information of the region of interest, weighting may be performed on at least one of the data. At this time, weighting may be performed so that the total variances are equal or have a predetermined balance according to the magnitude of the total variances of the pixel value information and the contour information of the learning data. Alternatively, the data may be weighted using the weight set by the user via the operation unit 35.

部分空間情報取得部52は、取得した複数の画像(複数の学習サンプルデータ)の夫々について、上記の流れで画素値情報と輪郭情報を連結したデータcを生成する。そして、部分空間情報取得部52は、生成したデータ群を2つ以上のデータセットに分けた上で、各データセットに関して統計解析を行う。統計解析には、主成分分析(PCA、Principle Component Analysis)などの既知の手法を用いればよく、Kernel PCAや、Weighted PCAなどの手法を用いても構わない。主成分分析を行うことで、画素値情報と輪郭情報を統合したデータcに関する平均ベクトルと、固有ベクトル、さらに各固有ベクトルに対応する固有値が計算できる。すなわち、画素値情報と輪郭情報を連結したデータcの平均ベクトル(cバー)と、固有ベクトルe、さらに、各固有ベクトルeに対する係数gを用いることで、下式により、部分空間上の点dを表現できる。この点dが1つの学習サンプルデータを表す。係数gは主成分得点(主成分スコア)である。

Figure 2021086263
The subspace information acquisition unit 52 generates data c in which pixel value information and contour information are concatenated in the above flow for each of the acquired plurality of images (plurality of learning sample data). Then, the subspace information acquisition unit 52 divides the generated data group into two or more data sets, and then performs statistical analysis on each data set. For the statistical analysis, a known method such as principal component analysis (PCA, Principal Component Analysis) may be used, or a method such as Kernel PCA or Weighted PCA may be used. By performing the principal component analysis, it is possible to calculate the average vector, the eigenvector, and the eigenvalues corresponding to each eigenvector for the data c in which the pixel value information and the contour information are integrated. That is, by using the average vector (c bar) of the data c in which the pixel value information and the contour information are concatenated, the eigenvector e, and the coefficient g for each eigenvector e, the point d on the subspace is expressed by the following equation. it can. This point d represents one learning sample data. The coefficient g is the principal component score (principal component score).
Figure 2021086263

ここで、Lは計算に用いる固有ベクトルの本数を表しており、その具体的な値は、固有値から計算できる累積寄与率に基づいて決定すればよい。例えば、累積寄与率95%を閾値として予め設定しておき、累積寄与率が95%以上となる固有ベクトルの本数を計算し、Lとして設定すればよい。あるいはユーザが設定した固有ベクトルの本数をLとして設定してもよい。 Here, L represents the number of eigenvectors used in the calculation, and the specific value thereof may be determined based on the cumulative contribution rate that can be calculated from the eigenvalues. For example, the cumulative contribution rate of 95% may be set in advance as a threshold value, the number of eigenvectors having a cumulative contribution rate of 95% or more may be calculated, and the value may be set as L. Alternatively, the number of eigenvectors set by the user may be set as L.

部分空間情報取得部52は、ステップS102の最後の処理として、各データセットに対する統計解析の結果から、各データセットに対応する部分空間情報を取得して、RAM33に格納する。部分空間情報は、部分空間を定義する情報であり、例えば、部分空間を構成する複数の固有ベクトルと平均ベクトルの情報を含む。このように本実施形態では、学習データをもとに、基底が異なる2つ以上の部分空間情報が取得される。 As the final process of step S102, the subspace information acquisition unit 52 acquires the subspace information corresponding to each data set from the result of the statistical analysis for each data set and stores it in the RAM 33. The subspace information is information that defines a subspace, and includes, for example, information on a plurality of eigenvectors and an average vector that constitute the subspace. As described above, in the present embodiment, two or more subspace information having different bases is acquired based on the learning data.

なお、本ステップにおける部分空間情報の算出処理は、第1の画像の輪郭抽出(輪郭推定)とは独立したデータ処理である。そのため、部分空間情報の算出処理を事前に実施し、算出された部分空間情報を記憶装置(例えば、データベース22又は記憶部34)に保存しておいてもよい。この場合、ステップS102において、部分空間情報取得部52は、2つ以上の部分空間情報を記憶装置から読み込んでRAM33に格納すればよい。予め部分空間情報を算出しておくことで、第1の画像における注目領域の推定処理を行う際の処理時間を短縮できる効果がある。なお、部分空間情報の算出処理は、画像処理装置10とは異なる他の装置で行ってもよい。 The subspace information calculation process in this step is data processing independent of the contour extraction (contour estimation) of the first image. Therefore, the calculation process of the subspace information may be performed in advance, and the calculated subspace information may be stored in the storage device (for example, the database 22 or the storage unit 34). In this case, in step S102, the subspace information acquisition unit 52 may read two or more subspace information from the storage device and store it in the RAM 33. By calculating the subspace information in advance, there is an effect that the processing time when performing the estimation processing of the region of interest in the first image can be shortened. The subspace information calculation process may be performed by another device different from the image processing device 10.

また、本実施形態では、画素値情報として、画像全体の画素値をラスタスキャン順に並べたデータを用いる例を示したが、画素値に関するその他の特徴量(画像のテクスチャに関する特徴量など)を画素値情報として利用してもよい。さらに、画像の一部を表す部分画像の画素値を並べたデータを画素値情報として用いてもよく、画像の注目領域の輪郭の周辺の画素値のみを並べたデータを画素値情報として用いても構わない。 Further, in the present embodiment, an example in which data in which the pixel values of the entire image are arranged in the order of raster scan is used as the pixel value information, but other feature amounts related to the pixel values (feature amounts related to the texture of the image, etc.) are used as pixels. It may be used as value information. Further, the data in which the pixel values of the partial image representing a part of the image are arranged may be used as the pixel value information, and the data in which only the pixel values around the outline of the region of interest of the image are arranged is used as the pixel value information. It doesn't matter.

あるいは、学習用の複数の画像を主成分分析して得られた部分空間に対し、画像を投影することにより得られる主成分得点を並べたデータを、当該画像の画素値情報として用いてもよい。例えば、学習用の複数の画像のそれぞれについて画素値情報aを計算した後、画素値情報aのデータ群について主成分分析を実施し、各画像の主成分得点のベクトルを当該画像の新たな画素値情報a′として、aの代わりに用いてもよい。画像を構成する画素数よりも、学習データとして用いる複数の画像の総数が少ない場合には、画素値情報aの次元数よりも画素値情報a′の次元数の方が小さくなる。そのため、画素値情報a′を用いることには、画素値情報と輪郭情報を連結したデータに対する統計解析の計算コストを削減できる効果がある。また、累積寄与率に対する閾値を設けて、主成分得点の次元数(すなわち、固有ベクトルの本数)を減らすことで、さらに計算コストを削減してもよい。 Alternatively, data obtained by arranging the principal component scores obtained by projecting an image onto a subspace obtained by principal component analysis of a plurality of images for learning may be used as pixel value information of the image. .. For example, after calculating the pixel value information a for each of a plurality of images for training, principal component analysis is performed on the data group of the pixel value information a, and the vector of the principal component score of each image is used as a new pixel of the image. It may be used instead of a as the value information a'. When the total number of a plurality of images used as training data is smaller than the number of pixels constituting the image, the number of dimensions of the pixel value information a'is smaller than the number of dimensions of the pixel value information a. Therefore, using the pixel value information a'has an effect of reducing the calculation cost of statistical analysis for the data in which the pixel value information and the contour information are concatenated. Further, the calculation cost may be further reduced by setting a threshold value for the cumulative contribution rate and reducing the number of dimensions of the principal component score (that is, the number of eigenvectors).

他方、注目領域の輪郭情報としては、注目領域の輪郭を表す点群の座標値を用いたが、その他の値を用いてもよい。一例では、注目領域を表すレベルセット関数(例えば、注目領域の内側を負、外側を正とする輪郭からの符号付距離値)を画像の各画素について算出した結果をラスタスキャン順に並べた情報を輪郭情報として用いてもよい。あるいは、注目領域とそれ以外を区別して表すラベル画像やマスク画像を輪郭情報として用いてもよい
。また、上述の画素値情報aから画素値情報a′を算出した方法と同様に、輪郭情報bについても、主成分分析を利用して算出した値を新たな輪郭情報b′として用いてもよい。すなわち、学習用の複数の画像に対応する輪郭情報bのみのデータ群に対して主成分分析を実施し、各画像の主成分得点のベクトルを新たな輪郭情報b′として設定することで、計算コストのさらなる削減が可能となる。
On the other hand, as the contour information of the region of interest, the coordinate values of the point cloud representing the contour of the region of interest are used, but other values may be used. In one example, information is obtained by arranging the results of calculating the level set function representing the region of interest (for example, the signed distance value from the contour with the inside of the region of interest as negative and the outside as positive) for each pixel of the image in the order of raster scan. It may be used as contour information. Alternatively, a label image or a mask image that distinguishes between the region of interest and the rest may be used as contour information. Further, similarly to the method of calculating the pixel value information a'from the pixel value information a described above, the value calculated by using the principal component analysis may be used as the new contour information b'for the contour information b. .. That is, the calculation is performed by performing the principal component analysis on the data group of only the contour information b corresponding to a plurality of images for learning and setting the vector of the principal component score of each image as the new contour information b'. Further cost reduction is possible.

ここで、学習データを2つ以上のデータセットに組分けする方法の具体例を説明する。例えば、データベース22から取得した画像と該画像における注目領域の輪郭情報に対して、予め設定した画像変形を施した上で、該画像変形毎に組分けを行ってもよい。すなわち、前記複数の画像に関する画像データと注目領域の輪郭を表す点群について、データオーグメンテーション(学習データの水増し)を行って、2つ以上のデータセットを作成してもよい。より具体的には、平行移動や回転、拡大縮小などの複数通りの操作を行ったデータを生成して、該変形パラメータが同じ、または近いデータを同じ組にまとめることで、2つ以上のデータセットを作成してもよい。あるいは、画像に写る被検者の患者情報(例えば、身長や体重、または病歴)などに基づいて組分けしてもよい。あるいは、時相の違い(拡張期と収縮期)、断面方向の違い(四腔像と二腔像)、検査種別や撮影プロトコルの違い、モダリティの機種の違い、病院の違い、撮影者の違い等によって学習データの組分けを行ってもよい。また、これらの複数の条件を組み合わせて組分けを行ってもよい。また、これ以外にも、注目領域の形状や画質に影響を与えるいずれの分類を用いて組分けを行ってもよい。 Here, a specific example of a method of grouping the training data into two or more data sets will be described. For example, the image acquired from the database 22 and the contour information of the region of interest in the image may be subjected to preset image deformation, and then grouped for each image deformation. That is, two or more data sets may be created by performing data augmentation (inflating of learning data) with respect to the image data relating to the plurality of images and the point cloud representing the outline of the region of interest. More specifically, by generating data obtained by performing multiple operations such as translation, rotation, and enlargement / reduction, and combining data having the same or similar deformation parameters into the same set, two or more data. You may create a set. Alternatively, the grouping may be performed based on the patient information (for example, height, weight, or medical history) of the subject shown in the image. Alternatively, the time phase is different (diastole and systole), the cross-sectional direction is different (four-chamber image and two-chamber image), the examination type and imaging protocol are different, the modality model is different, the hospital is different, and the photographer is different. The training data may be grouped according to the above. Further, the grouping may be performed by combining these a plurality of conditions. In addition to this, grouping may be performed using any classification that affects the shape and image quality of the region of interest.

ここで、学習データを2つ以上の組に分けて、2つ以上の部分空間情報を生成し、それらの中から1つの部分空間を選択することの効果を述べる。式(4)に示したように、主成分分析から得られる結果では、部分空間を平均ベクトルと固有ベクトルの線形和で表現する。ここで、画像の各画素における画素値を主成分分析することを考えると、前述の部分空間において、解析の学習データの周辺部では画像データとして尤もらしい画像(学習データに近い画像)が得られると考えられる。しかし、部分空間において学習データから離れた座標に関しては、部分空間から逆投影の操作によって元の画像空間に戻したときに、不自然な画像となってしまうことがある。これは、異なる画像の画素値の関係性が線形でないものについて、線形モデルを利用してモデル化しているために生じる課題である。そして、部分空間中にこのような点が存在すると、該部分空間を使って推定処理を行った際に、出力が不適切なものとなってしまう場合がある。 Here, the effect of dividing the learning data into two or more sets, generating two or more subspace information, and selecting one subspace from them will be described. As shown in equation (4), in the result obtained from the principal component analysis, the subspace is expressed by the linear sum of the mean vector and the eigenvector. Here, considering the principal component analysis of the pixel values in each pixel of the image, in the above-mentioned subspace, an image (an image close to the training data) that is plausible as image data can be obtained in the peripheral portion of the learning data of the analysis. it is conceivable that. However, coordinates away from the training data in the subspace may result in an unnatural image when returned to the original image space by the operation of back projection from the subspace. This is a problem that arises because the relationship between the pixel values of different images is not linear and is modeled by using a linear model. If such a point exists in the subspace, the output may be inappropriate when the estimation process is performed using the subspace.

一般に、統計解析対象の学習データとしては、注目領域の形状や、注目領域が画像中のどこに写っているのか、などのバリエーションは可能な限り多い方が望ましい。それは、このデータのバリエーションが増えるほどに、統計解析から得られる部分空間の表現力が上がるため、より多くの未知データに対応できるようになるからである。しかしながら、部分空間の表現力が上がるほど、該部分空間には、前述の不自然な画像が含まれるリスクが高まってしまうという課題がある。本実施形態では、上記課題に鑑みて、学習データの全てのサンプルデータを用いて1つの部分空間を生成するのではなく、比較的近いサンプルデータを集めた複数のデータセットに学習データを分けた上で、それらの各データセットについて部分空間を生成する方法を取る。すなわち、この方法によれば、データの分類方法に応じて、ある特徴を持つ学習サンプルデータ群に特化した部分空間が生成できる。学習データを複数のデータセットに分割することで、全体で1つの部分空間を生成する場合と比較すると、1つの組に関する部分空間の表現力は低下してしまうが、部分空間の中に不自然な画像が含まれるリスクを下げる効果が期待できる。本実施形態の方法では、未知の入力画像が与えられたときに、どの部分空間情報を用いて推定するのか、その部分空間情報の選択が重要になるため、次のステップS103において、推定処理のために適した部分空間情報を選択している。 In general, it is desirable that the learning data to be statistically analyzed has as many variations as possible, such as the shape of the region of interest and where the region of interest appears in the image. This is because as the variation of this data increases, the expressive power of the subspace obtained from the statistical analysis increases, and it becomes possible to deal with more unknown data. However, there is a problem that the higher the expressive power of the subspace, the higher the risk that the subspace contains the above-mentioned unnatural image. In the present embodiment, in view of the above problems, the training data is divided into a plurality of data sets in which relatively close sample data are collected, instead of generating one subspace using all the sample data of the training data. Above, we take the method of generating subspaces for each of those datasets. That is, according to this method, a subspace specialized for a learning sample data group having a certain feature can be generated according to the data classification method. By dividing the training data into multiple data sets, the expressive power of the subspace for one set is reduced compared to the case where one subspace is generated as a whole, but it is unnatural in the subspace. It can be expected to have the effect of reducing the risk of including various images. In the method of the present embodiment, when an unknown input image is given, it is important to select which subspace information to use for estimation. Therefore, in the next step S103, the estimation process is performed. You have selected the appropriate subspace information for this.

(ステップS103:部分空間情報の選択)
ステップS103において、部分空間情報選択部55は、画像取得部51で取得した第1の画像と、部分空間情報取得部52で取得した2つ以上の部分空間情報とに基づいて、ある1つの部分空間情報を選択し、その結果をRAM33に格納する。すなわち、第1の画像における注目領域の輪郭情報を推定するためにより適した部分空間情報(第1の部分空間の情報)として、第1の画像に基づいて、2つ以上の部分空間情報の中から1つの部分空間情報を選択する。
(Step S103: Selection of subspace information)
In step S103, the subspace information selection unit 55 is one portion based on the first image acquired by the image acquisition unit 51 and two or more subspace information acquired by the subspace information acquisition unit 52. Spatial information is selected and the result is stored in RAM 33. That is, as subspace information (information on the first subspace) that is more suitable for estimating the contour information of the region of interest in the first image, among two or more subspace information based on the first image. Select one subspace information from.

2つ以上の部分空間情報から注目領域の輪郭情報を推定するために適した部分空間情報を選択する処理は、第1の画像の画素値情報と、夫々のデータセットに含まれるサンプルデータの画素値情報との類似性を用いることで実現できる。すなわち、部分空間情報選択部55は、画像の画素値情報に基づいて、第1の画像と類似するサンプルデータが含まれるデータセットを特定し、該特定されたデータセットから生成された部分空間情報を選択すればよい。 The process of selecting suitable subspatial information for estimating the contour information of the region of interest from two or more subspatial information includes the pixel value information of the first image and the pixels of the sample data included in each data set. This can be achieved by using the similarity with the value information. That is, the subspatial information selection unit 55 identifies a data set including sample data similar to the first image based on the pixel value information of the image, and the subspatial information generated from the specified data set. You just have to select.

ここで、2つ以上のデータセットから第1の画像に最適な1つのデータセットを特定する具体的な方法としては、第1の画像と各サンプルの画像との間の差分を評価する方法が挙げられる。2つの画像の間の差分は、例えば、画素値の差分二乗和(SSD:Sum of Squared Difference)で評価すればよい。例えば、差分二乗和が最も小さい値となるサンプルデータが第1の画像に最も類似するサンプルデータ(類似サンプルデータと呼ぶ)であると考えて、当該類似サンプルデータが含まれるデータセットを推定処理に最適なデータセットとして特定する。このように第1の画像に最も類似するサンプルデータを含むデータセットから生成された部分空間情報を使うことで、後段のステップS104における推定処理の精度の向上が期待できる。但し、この方法では、サンプルデータの総数が膨大である場合には、計算コストも膨大になってしまうことが課題となる。 Here, as a specific method of identifying one data set most suitable for the first image from two or more data sets, a method of evaluating the difference between the first image and the image of each sample is used. Can be mentioned. The difference between the two images may be evaluated by, for example, the sum of squared differences (SSD) of the pixel values. For example, assuming that the sample data having the smallest sum of differences squared is the sample data most similar to the first image (called similar sample data), the data set including the similar sample data is used for estimation processing. Identify as the optimal data set. By using the subspace information generated from the data set including the sample data most similar to the first image in this way, it is expected that the accuracy of the estimation process in the subsequent step S104 will be improved. However, in this method, when the total number of sample data is enormous, there is a problem that the calculation cost becomes enormous.

そこで、本実施形態では、部分空間情報選択部55は、夫々のデータセットのサンプルデータの画素値情報について主成分分析を行った上で、該主成分分析の結果と、第1の画像の画素値情報を使って、部分空間法によって最適なデータセットを特定する。この方法によると、上記の特定処理の計算コストを低減することができる。 Therefore, in the present embodiment, the subspatial information selection unit 55 performs principal component analysis on the pixel value information of the sample data of each data set, and then the result of the principal component analysis and the pixels of the first image. Value information is used to identify the optimal dataset by the subspace method. According to this method, the calculation cost of the above-mentioned specific processing can be reduced.

部分空間法による処理を行う手順は次の通りである。まず初めに、2つ以上のデータセットの夫々について、画素値情報に関する主成分分析を行って、部分空間を生成する。続いて、全ての部分空間の夫々について、第1の画像の部分空間への投影・逆投影の処理を行って、再構築誤差を計算する。つまり、第1の画像の画素値情報を部分空間に投影した後、元の画像空間に逆投影した結果から得られる画像と、第1の画像との間で画素値の差分二乗和(すなわち、再構築誤差)を計算する。この再構築誤差が最も小さい部分空間に対応するデータセットが、第1の画像に類似するサンプルデータが含まれるデータセット、言い換えると、第1の画像を最も正しく表現することのできる部分空間を与えるデータセットである。このような方法により、後段のステップS104の処理に最も適した部分空間情報に対応するデータセットを特定できる。 The procedure for processing by the subspace method is as follows. First, a subspace is generated by performing principal component analysis on pixel value information for each of two or more datasets. Subsequently, the reconstruction error is calculated by performing the projection / backprojection processing of the first image on the subspace for each of the subspaces. That is, after projecting the pixel value information of the first image into the subspace, the difference squared sum of the pixel values (that is, the sum of the difference squares of the pixel values) between the image obtained from the result of back-projection to the original image space and the first image. Reconstruction error) is calculated. The dataset corresponding to this subspace with the smallest reconstruction error provides a dataset containing sample data similar to the first image, in other words, the subspace that can best represent the first image. It is a data set. By such a method, the data set corresponding to the subspace information most suitable for the processing of the subsequent step S104 can be specified.

なお、ここでは画像間の類似性を評価するために画素値の差分二乗和を用いる例を示したが、差分絶対値和(SAD:Sum of Absolute Difference)などその他の指標を用いても構わない。 Although an example of using the difference squared sum of pixel values to evaluate the similarity between images is shown here, other indexes such as the difference absolute value sum (SAD: Sum of Absolute Difference) may be used. ..

また、複数のデータセットの中から最適な一つのデータセットを選択することに限らず、所定の条件を満たすデータセットをすべて選択する構成であってもよい。例えば、画素値情報の再構築誤差が所定の閾値より小さいデータセットを全て選択するようにしてもよ
い。あるいは、再構築誤差が小さい上位の所定の数のデータセットを選択するようにしてもよい。複数のデータセットが選択された場合、ステップS104において、輪郭情報推定部53は、夫々のデータセットの部分空間情報を用いて輪郭情報の推定処理を実行して結果を統合してもよい。例えば、夫々の部分空間情報を用いて推定された輪郭情報の平均値や中央値を取得してもよい。
Further, the configuration is not limited to selecting one optimum data set from a plurality of data sets, and may be a configuration in which all data sets satisfying a predetermined condition are selected. For example, all the data sets in which the reconstruction error of the pixel value information is smaller than a predetermined threshold value may be selected. Alternatively, a predetermined number of high-order data sets with a small reconstruction error may be selected. When a plurality of data sets are selected, in step S104, the contour information estimation unit 53 may execute the contour information estimation process using the subspace information of each data set and integrate the results. For example, the average value or the median value of the contour information estimated using each subspace information may be acquired.

(ステップS104:注目領域の輪郭情報の推定)
ステップS104において、輪郭情報推定部53は、ステップS101で取得した第1の画像と、ステップS103で選択した第1の部分空間情報から、第1の画像中に写る注目領域の輪郭情報を推定する。その推定結果はRAM33に格納される。
(Step S104: Estimating the contour information of the region of interest)
In step S104, the contour information estimation unit 53 estimates the contour information of the region of interest appearing in the first image from the first image acquired in step S101 and the first subspace information selected in step S103. .. The estimation result is stored in the RAM 33.

輪郭情報の推定方法は問わない。例えば、非特許文献1には、未知の入力画像の画素値情報と、部分空間情報(統計モデル)における画像の画素値情報との整合性を表す評価値を利用して、勾配法による反復処理に基づいて入力画像に写る注目領域の輪郭情報を推定する技術が開示されている。輪郭情報推定部53は、このような勾配法による反復処理を用いて輪郭情報を推定してもよい。 The method of estimating the contour information does not matter. For example, in Non-Patent Document 1, iterative processing by the gradient method is performed by using an evaluation value indicating consistency between the pixel value information of an unknown input image and the pixel value information of an image in subspatial information (statistical model). A technique for estimating the contour information of the region of interest reflected in the input image based on the above is disclosed. The contour information estimation unit 53 may estimate the contour information by using such an iterative process by the gradient method.

しかし、輪郭情報の推定を行う際に反復処理を使う場合、予め定義したエネルギー関数について、反復処理前後の変化が十分に小さくなるか、ある既定の回数に達するまで反復処理を繰り返す必要があるため、ある程度の計算コストが掛かってしまう。また、反復回数(処理が収束するタイミング)が入力データによって変わるため、全体の計算時間にバラつきが生じることで処理に掛かる計算時間を事前に把握しにくいという課題もある。 However, when iterative processing is used when estimating contour information, it is necessary to repeat the iterative processing until the change before and after the iterative processing becomes sufficiently small or a certain predetermined number of times is reached for the predefined energy function. , It costs a certain amount of calculation cost. Further, since the number of iterations (timing at which the processing converges) changes depending on the input data, there is also a problem that it is difficult to grasp the calculation time required for the processing in advance due to the variation in the total calculation time.

そこで本実施形態においては、注目領域の輪郭情報を推定する際に、反復処理を使わない方法を適用することで、より計算コストの低い輪郭情報の推定処理を実現する。 Therefore, in the present embodiment, when estimating the contour information of the region of interest, by applying a method that does not use iterative processing, it is possible to realize the estimation processing of the contour information with a lower calculation cost.

ここで、未知の入力画像(超音波画像)が与えられた際に、所定の注目領域(左心房)を表す輪郭情報を推定する問題について整理する。先のステップS103で選択した第1の部分空間情報は、超音波画像の画素値情報と、当該画像に写る左心房の輪郭を表す点群の情報を関連付けた部分空間に関する情報である。そして、未知の入力画像を扱う場合には、超音波画像が与えられるため、該画像に対応する画素値情報aに関しては、ステップS102と同様の手順で計算できる。つまり、本ステップの命題は、学習データから算出した第1の部分空間情報と、入力画像に関する画素値情報aとに基づいて、該入力画像に対応する輪郭情報bを推定することである。 Here, the problem of estimating the contour information representing a predetermined region of interest (left atrium) when an unknown input image (ultrasound image) is given is summarized. The first subspace information selected in step S103 above is information related to the subspace in which the pixel value information of the ultrasonic image and the information of the point cloud representing the outline of the left atrium reflected in the image are associated with each other. Then, when handling an unknown input image, an ultrasonic image is given, so that the pixel value information a corresponding to the image can be calculated in the same procedure as in step S102. That is, the proposition of this step is to estimate the contour information b corresponding to the input image based on the first subspatial information calculated from the learning data and the pixel value information a related to the input image.

下記非特許文献2には、複数の画像の画素値の情報と、該画像に写る物体の姿勢を表す情報を連結したデータに関する部分空間情報とを利用して、未知の画像の画素値の情報から該画像に写る物体の姿勢を表す情報を推定する技術が開示されている。換言すると、この技術は、ある欠損が生じているデータについて、欠損のない学習データを統計解析した結果から、該欠損部分のデータを補間する技術である。この技術はBack projection for lost pixels(BPLP)法と呼ばれている。 In Non-Patent Document 2 below, information on the pixel value of an unknown image is described by using information on the pixel value of a plurality of images and subspatial information on data obtained by concatenating information representing the posture of an object in the image. Discloses a technique for estimating information representing the posture of an object in the image. In other words, this technique is a technique for interpolating the data of the defective portion from the result of statistically analyzing the learning data without the defect for the data in which a certain defect occurs. This technique is called the Back projection for lost pixels (BPLP) method.

[非特許文献2] Toshiyuki Amano,et.al.”An appearance based fast linear pose estimation” MVA 2009 IAPR Conference on Machine Vision Applications.2009 May 20−22. [Non-Patent Document 2] Toshiyuki Amano, et. al. "An application based fast liner pose application" MVA 2009 IAPR Convention on Machine Vision Applications. 2009 May 20-22.

BPLP法を適用するためには、入力データについて、どの部分が既知の情報であり、どの部分が未知の情報(欠損部分)であるかを推定時に特定しておく必要がある。本実施形態においては、入力画像である第1の画像の画素値情報を既知の情報として設定し、第
1の画像中の注目領域の輪郭情報を未知の情報として設定する。すなわち、非特許文献2における画像の画素値の情報の部分を画素値情報a、物体の姿勢を表す情報の部分を輪郭情報b、とするように問題設定を置き換えて、次に示す方法に基づいて本ステップの命題を解く。
In order to apply the BPLP method, it is necessary to specify at the time of estimation which part of the input data is known information and which part is unknown information (missing part). In the present embodiment, the pixel value information of the first image, which is the input image, is set as known information, and the contour information of the region of interest in the first image is set as unknown information. That is, the problem setting is replaced so that the pixel value information part of the image in Non-Patent Document 2 is the pixel value information a and the information part representing the posture of the object is the contour information b, based on the following method. Solve the proposition of this step.

輪郭情報推定部53は、既知の情報である第1の画像の画素値情報aに対応する要素と、未知の情報である第1の画像中の注目領域の輪郭情報bに対応する要素と、を含んで構成されるベクトルfを、以下の式により求める。以下の式に基づく演算は、繰り返し演算を含まないため、従来の勾配法に比べて計算コストの低い輪郭情報の推定処理が実現できる。また、この演算に関する計算時間のバラつきの観点で影響を与える要因は、入力の画素値情報と、推定対象の輪郭情報の次元数であることから、入力画像の大きさが決まれば、処理時間のバラつきは小さくなることが期待できる。

Figure 2021086263
The contour information estimation unit 53 includes elements corresponding to the pixel value information a of the first image, which is known information, and elements corresponding to the contour information b of the region of interest in the first image, which is unknown information. The vector f including the above is obtained by the following equation. Since the calculation based on the following formula does not include the iterative calculation, it is possible to realize the estimation process of the contour information at a lower calculation cost than the conventional gradient method. Further, since the factors that influence the variation of the calculation time related to this calculation are the number of dimensions of the input pixel value information and the contour information of the estimation target, if the size of the input image is determined, the processing time will be increased. It can be expected that the variation will be small.
Figure 2021086263

ここで、右辺のf′は、ある欠損が生じている入力データを表しており、本実施形態においては、式(3)に示すように、ベクトルfの要素のうち未知の情報である輪郭情報に対応する要素を0としたベクトルである。

Figure 2021086263
Here, f'on the right side represents input data in which a certain defect occurs, and in the present embodiment, as shown in the equation (3), contour information which is unknown information among the elements of the vector f. It is a vector in which the element corresponding to is 0.
Figure 2021086263

Eは、ステップS103で選択した第1の部分空間情報により定義される部分空間を表す行列である。L個の固有ベクトルをe1、e2、・・・、eLとしたときに、例えば、行列Eは、E=[e1,e2,・・・,eL]で与えられる。Σは、既知の情報である画素値情報に対応する対角要素を1とし、それ以外の要素を0とした正方行列である。言い換えると、Σは、単位行列のうち未知の情報である輪郭情報に対応する要素を0にした行列である。本実施形態においては、Σは、一辺がNx×Ny+9×2(画素値情報aの次元数+輪郭情報bの次元数)の大きさの正方行列であり、最後の18個の対角要素が0であり、それ以外の対角要素が1となる行列である。

Figure 2021086263
E is a matrix representing the subspace defined by the first subspace information selected in step S103. When L eigenvectors are e1, e2, ..., EL, for example, the matrix E is given by E = [e1, e2, ..., EL]. Σ is a square matrix in which the diagonal element corresponding to the pixel value information, which is known information, is 1, and the other elements are 0. In other words, Σ is a matrix in which the element corresponding to the contour information, which is unknown information, is set to 0 in the unit matrix. In the present embodiment, Σ is a square matrix having a side of Nx × Ny + 9 × 2 (the number of dimensions of pixel value information a + the number of dimensions of contour information b), and the last 18 diagonal elements are It is a matrix that is 0 and the other diagonal elements are 1.
Figure 2021086263

なお、本実施形態においては、入力画像が任意の場合であっても、未知の情報として設定する部分は変わらない(常に輪郭情報bの部分になる)。そのため、ステップS102で部分空間情報を算出した時点で、E(EΣE)−1(推定処理で行われる演算の一部)の結果を事前に計算できる。したがって、予めE(EΣE)−1の結果までを算出し、その算出結果を部分空間情報として記憶装置(例えば、データベース22又は記憶部34)に保存してもよい。そして、E(EΣE)−1の結果が保存されている場合には、ステップS102の処理において、部分空間情報取得部52は、部分空間情報として該算出結果を読み出すことで、推定処理のための計算に関わるコストを削減できる。なお、E(EΣE)−1のうちの一部(例えば(EΣE)−1の部分)の算出結果を部分空間情報として記憶装置(例えば、データベース22又は記憶部34)に保存しておき、残りの部分の演算は部分空間情報取得部52又は輪郭情報推定部53が行う構成でもよい。 In the present embodiment, even if the input image is arbitrary, the portion set as unknown information does not change (always becomes the portion of contour information b). Therefore, at the time of calculation of the partial space information at step S102, it can be computed E a (E T ΣE) -1 E T ( part of the operation performed by the estimation process) results in advance. Therefore, to calculate the in advance to E (E T? En) -1 result of E T, memory device and the calculation result as a partial space information (e.g., a database 22 or the storage unit 34) may be stored in. When the E (E T ΣE) -1 result of E T is saved in the process of step S102, the partial space information acquisition unit 52, by reading the result output the calculated as the partial spatial information, estimated The cost related to the calculation for processing can be reduced. Incidentally, the E (E T? En) -1 part of the E T (e.g. (E T? En) portion of -1) storage device the calculation result as a partial space information (e.g., a database 22 or the storage unit 34) The operation of the remaining portion may be performed by the subspace information acquisition unit 52 or the contour information estimation unit 53.

最後に、輪郭情報推定部53は、推定結果fから輪郭情報に該当する部分の情報(本実
施形態においては、最後の18個の要素)を取り出して、RAM33に格納する。
Finally, the contour information estimation unit 53 extracts the information of the portion corresponding to the contour information (in the present embodiment, the last 18 elements) from the estimation result f and stores it in the RAM 33.

なお、ステップS102で画素値情報aの代わりに画素値情報a′を用いた場合には、式(6)のI(0,0)〜I(Nx,Ny)の部分を画素値情報a′の計算方法と同じ方法により計算した値に置き換える必要がある。より具体的には、画素値情報a′が学習用画像の画素値情報に関する主成分得点である場合は、入力画像と、学習データの画素値情報のみを用いて構築した部分空間の情報と、に基づいて、投影の処理をして入力画像の主成分得点を算出すればよい。また、推定処理の対象として、輪郭情報b′などの値に関する推定処理を行った場合には、推定結果の輪郭情報は輪郭線上のxy座標にはなっていないので、推定した値から座標値への変換を行って、RAM33に格納すればよい。より具体的には、輪郭情報b′が学習データの輪郭情報に関する主成分得点である場合は、該主成分得点と、学習データの輪郭情報のみを用いて構築した部分空間情報に基づいて、逆投影の処理をすればよい。 When the pixel value information a'is used instead of the pixel value information a in step S102, the pixel value information a'is the portion of I (0,0) to I (Nx, Ny) in the equation (6). It is necessary to replace it with the value calculated by the same method as the calculation method of. More specifically, when the pixel value information a'is the principal component score related to the pixel value information of the training image, the input image, the information of the subspace constructed using only the pixel value information of the training data, and the information of the subspace. Based on the above, the projection process may be performed to calculate the principal component score of the input image. Further, when the estimation process for the value such as the contour information b'is performed as the target of the estimation processing, the contour information of the estimation result is not the xy coordinates on the contour line, so the estimated value is changed to the coordinate value. Is converted and stored in the RAM 33. More specifically, when the contour information b'is the principal component score related to the contour information of the training data, the reverse is made based on the principal component score and the subspatial information constructed using only the contour information of the training data. The projection process may be performed.

なお、推定した注目領域の輪郭情報は、そのまま輪郭の推定結果として用いてもよいし、より精密な抽出処理に初期値として与えるための粗抽出結果として用いてもよい。後者の場合、輪郭情報推定部53は、上記処理で得た輪郭情報を初期値として用いて、物体輪郭を精密に抽出する公知の手法を用いて、輪郭の精密抽出を行う。 The estimated contour information of the region of interest may be used as it is as the contour estimation result, or may be used as a rough extraction result to be given as an initial value to a more precise extraction process. In the latter case, the contour information estimation unit 53 uses the contour information obtained in the above process as an initial value and performs precise extraction of the contour by using a known method for precisely extracting the contour of the object.

(ステップS105:輪郭情報推定結果に基づいて画像を表示)
ステップS105において、表示処理部54は、入力画像である第1の画像と輪郭情報推定部53により推定した注目領域の輪郭情報を画像表示領域内に表示させる。このとき、推定した輪郭情報と第1の画像を重畳して表示してもよい。重畳表示を行うことで、第1の画像に対して、推定した輪郭情報がどの程度合っているのかを容易に視認できる。本実施形態においては、注目領域の輪郭情報は、該領域の輪郭をサンプリングした離散的な点群であるため、スプライン補間などの既知の技術を用いて隣接点の間を補間した後に表示してもよい。
(Step S105: Display an image based on the contour information estimation result)
In step S105, the display processing unit 54 displays the first image as an input image and the contour information of the region of interest estimated by the contour information estimation unit 53 in the image display area. At this time, the estimated contour information and the first image may be superimposed and displayed. By superimposing the display, it is possible to easily visually recognize how much the estimated contour information matches the first image. In the present embodiment, since the contour information of the region of interest is a discrete point cloud obtained by sampling the contour of the region, it is displayed after interpolating between adjacent points using a known technique such as spline interpolation. May be good.

なお、注目領域の解析や計測を目的とする場合には、ステップS105の処理は必ずしも必要でなく、推定した輪郭情報を保存するだけの構成であってもよい。 When the purpose is to analyze or measure the region of interest, the process of step S105 is not always necessary, and the configuration may be such that only the estimated contour information is saved.

また、上記の説明では、画像が2次元画像である場合を例に説明したが、画像が3次元画像(ボリューム画像)であっても、同様に処理を行うことができる。 Further, in the above description, the case where the image is a two-dimensional image has been described as an example, but even if the image is a three-dimensional image (volume image), the same processing can be performed.

なお、本実施形態では、注目領域の輪郭情報として、左心房を表す点群の座標値を用いた例を示したが、左心房に加えて、左心室や右心室、右心房など、2つ以上の領域を表す点群の座標値を合わせたものを輪郭情報としてもよい。この場合は、ステップS102において、左心房領域を表す点群の座標値だけではなく、2つ以上の領域の全ての点群の座標値に関する統計解析を実施することで、ステップS104で2つ以上の領域の全ての点群の座標値を同時に推定できる。 In this embodiment, an example is shown in which the coordinate values of the point group representing the left atrium are used as the contour information of the region of interest, but in addition to the left atrium, there are two such as the left ventricle, the right ventricle, and the right atrium. The contour information may be a combination of the coordinate values of the points representing the above area. In this case, by performing statistical analysis not only on the coordinate values of the point cloud representing the left atrium region but also on the coordinate values of all the point clouds in the two or more regions in step S102, two or more of them are performed in step S104. The coordinate values of all the point clouds in the area of can be estimated at the same time.

本実施形態によれば、第1の画像に応じて複数の部分空間から最適な部分空間を選択して前記注目領域の輪郭情報を推定することで、より精度の高い輪郭抽出結果をユーザに提供できる効果がある。また、本実施形態によれば、学習データから構築した部分空間を表す行列Eを用いた行列演算によって注目領域の形状情報である輪郭情報を推定することで、精度の高い輪郭抽出結果を、より低い計算コストでユーザに提供できる効果もある。 According to the present embodiment, a more accurate contour extraction result is provided to the user by selecting the optimum subspace from a plurality of subspaces according to the first image and estimating the contour information of the region of interest. There is an effect that can be done. Further, according to the present embodiment, by estimating the contour information which is the shape information of the region of interest by the matrix calculation using the matrix E representing the subspace constructed from the learning data, the contour extraction result with high accuracy can be obtained more accurately. There is also an effect that it can be provided to the user at a low calculation cost.

以上、本実施形態について説明したが、本発明はこれらに限定されるものではなく、請求項に記載された範囲内において変更・変形することが可能である。 Although the present embodiment has been described above, the present invention is not limited to these, and can be modified or modified within the scope of the claims.

(変形例1)
上記実施形態では、入力画像や学習データとして扱う画像が2次元の超音波画像である例を示したが、これらの画像は、2次元画像の経時的なデータを繋げた画像(3次元の時空間画像)であってもよい。すなわち、2次元の超音波画像の動画像(2フレーム以上の2次元超音波画像)を入力画像として扱ってもよい。このとき、時間的に連続する複数フレームの画像の組ではなく、特定のフレーム(時相)の画像の組を用いて、3次元の時空間画像を構成してもよい。
(Modification example 1)
In the above embodiment, an example is shown in which the image to be treated as the input image or the training data is a two-dimensional ultrasonic image, but these images are images in which the temporal data of the two-dimensional images are connected (when three-dimensional). It may be a spatial image). That is, a moving image of a two-dimensional ultrasonic image (two-dimensional ultrasonic image of two or more frames) may be treated as an input image. At this time, a three-dimensional spatiotemporal image may be constructed by using a set of images of a specific frame (temporal phase) instead of a set of images of a plurality of frames that are continuous in time.

心臓の超音波画像の動画像を例に取ると、拡張期(拡張末期:ED(End−Diastole)期)のフレームの画像と収縮期(収縮末期:ES(End−Systole)期)のフレームの画像の2つの時相の画像で構成される3次元画像を用いるとよい。この場合には、拡張期と収縮期の2つのフレームの画像の画素値情報と、該画像の夫々に対応する輪郭情報とに基づいて、上記実施形態の方法を実施すればよい。上記実施形態と同様の処理を実施することで、未知の3次元画像の入力に対して、該3次元画像の全てのフレームに対応する輪郭情報を同時に推定できる。なお、心臓の拡張期や収縮期のフレームの特定は、公知のいかなる方法を用いてもよい。例えば、動画像からユーザが手動で特定してもよく、動画像に対応する心電図等の情報からフレームの特定を自動で行ってもよい。 Taking a moving image of an ultrasonic image of the heart as an example, an image of a frame of diastole (end diastole: ED (End-Diastole)) and a frame of systole (end-systole: ES (End-System)) It is preferable to use a three-dimensional image composed of images of two time phases of the image. In this case, the method of the above embodiment may be implemented based on the pixel value information of the images of the two frames of the diastole and the systole and the contour information corresponding to each of the images. By performing the same processing as in the above embodiment, it is possible to simultaneously estimate the contour information corresponding to all the frames of the three-dimensional image for the input of the unknown three-dimensional image. Any known method may be used to specify the frame of the diastole or systole of the heart. For example, the user may manually identify the frame from the moving image, or the frame may be automatically specified from the information such as the electrocardiogram corresponding to the moving image.

上述のように複数のフレームから3次元画像を構成する場合、第1の実施形態の方法を実施するためには、入力画像となる全フレームの画像の全ての画素値を並べたものを画素値情報に設定すればよい。すなわち、例えば拡張期(di)と収縮期(sys)の画像で3次元画像を構成した場合、画素値情報aを下記のようにすればよい。

Figure 2021086263
When a three-dimensional image is composed of a plurality of frames as described above, in order to carry out the method of the first embodiment, the pixel values of all the pixel values of the images of all the frames to be the input images are arranged. You can set it in the information. That is, for example, when a three-dimensional image is composed of images in the diastole period (di) and the systole period (sys), the pixel value information a may be set as follows.
Figure 2021086263

ここで、Idi(x,y)は拡張期の画像の画素値を表しており、Isys(x,y)は収縮期の画像の画素値を表している。すなわち、入力画像が複数のフレーム(時相)の画像の組で構成された画像である場合には、全フレームの画像の画素値情報を連結したデータを入力画像の画素値情報として用いればよい。 Here, I di (x, y) represents the pixel value of the image in the diastole period, and I sys (x, y) represents the pixel value of the image in the systole period. That is, when the input image is an image composed of a set of images of a plurality of frames (time phase), the data obtained by concatenating the pixel value information of the images of all frames may be used as the pixel value information of the input image. ..

さらに、輪郭情報に関しても、全フレームの画像夫々に対応する注目領域の輪郭情報を表す点群の情報を連結したデータを入力画像に対応する注目領域の輪郭情報として用いることで、上記実施形態の方法を実施できる。すなわち、輪郭情報bを下記のようにすればよい。ここでも、diの添え字があるものは拡張期の画像の注目領域の輪郭情報を表す点の座標であり、sysの添え字があるものは収縮期の画像の注目領域の輪郭情報を表す点の座標である。

Figure 2021086263
Further, regarding the contour information, by using the data obtained by concatenating the information of the point cloud representing the contour information of the attention region corresponding to each of the images of all frames as the contour information of the attention region corresponding to the input image, the above-described embodiment The method can be implemented. That is, the contour information b may be set as follows. Again, those with the di subscript are the coordinates of the points that represent the contour information of the region of interest in the diastolic image, and those with the subscript of sys are the points that represent the contour information of the region of interest in the systolic image. The coordinates of.
Figure 2021086263

このとき、ステップS101において、画像取得部51は、第1の画像として、処理対象とする拡張期と収縮期の画像対を取得する。また、ステップS102において、部分空間情報取得部52は、第1の画像とは異なる複数の拡張期と収縮期の画像対に関して、第1の実施形態に記載の処理を行う。すなわち、該画像対の画素値情報a(式(8))と、該画像対における注目領域の正解の輪郭情報b(式(9))を連結したデータcの統計解析を行い、部分空間情報を取得する。そして、ステップS103において、輪郭情報推定部53は、第1の画像中に写る注目領域の輪郭情報を推定する。このように、画素値情報と輪郭情報を設定した上で、上記実施形態と同様の処理を実施することで、未知の3次元画像の入力に対して、該3次元画像の全てのフレームに対応する輪郭情報を同時に推定で
きる。
At this time, in step S101, the image acquisition unit 51 acquires an image pair of diastole and systole to be processed as the first image. Further, in step S102, the subspace information acquisition unit 52 performs the process described in the first embodiment with respect to a plurality of image pairs of diastole and systole different from the first image. That is, statistical analysis is performed on the data c in which the pixel value information a (formula (8)) of the image pair and the contour information b (formula (9)) of the correct answer of the region of interest in the image pair are concatenated to perform subspace information. To get. Then, in step S103, the contour information estimation unit 53 estimates the contour information of the region of interest that appears in the first image. By performing the same processing as in the above embodiment after setting the pixel value information and the contour information in this way, all the frames of the three-dimensional image can be input for the input of the unknown three-dimensional image. The contour information to be used can be estimated at the same time.

なお、上記実施形態で記載したように、画像の画素値情報のみのデータについて主成分分析を実施し、各画像に対応する主成分得点を計算し、該主成分得点を各画像の新たな画素値情報として用いてもよい。式(8)のように画素値情報を画素単位の値で構成すると、3次元画像のフレーム数が増えるほどデータの次元数が膨大になり、計算コストの増加を招く。そのため、次元数の少ない主成分得点を画素値情報に使うことで、計算コストの大幅な削減ができる。また、輪郭情報についても同様に、注目領域を表す点の座標値に対する主成分分析を利用して算出した主成分得点を新たな輪郭情報として用いてもよい。 As described in the above embodiment, the principal component analysis is performed on the data of only the pixel value information of the image, the principal component score corresponding to each image is calculated, and the principal component score is used as a new pixel of each image. It may be used as value information. When the pixel value information is composed of the values in pixel units as in the equation (8), the number of dimensions of the data becomes enormous as the number of frames of the three-dimensional image increases, which leads to an increase in calculation cost. Therefore, the calculation cost can be significantly reduced by using the principal component score having a small number of dimensions for the pixel value information. Similarly, for the contour information, the principal component score calculated by using the principal component analysis on the coordinate values of the points representing the region of interest may be used as new contour information.

このように、拡張期と収縮期などの2つ以上のフレームの画像を動画像から取り出して、3次元画像を構成し、それら2つ以上のフレームの画像の輪郭情報を同時に推定することには、次の2つのメリットがある。これらの効果は、拡張期と収縮期の画像の組み合わせの時だけに得られるものではなく、異なる時相の複数の画像の組み合わせを使うことで得られる効果である。 In this way, to extract images of two or more frames such as diastole and systole from a moving image to form a three-dimensional image, and to estimate the contour information of the images of those two or more frames at the same time. , There are the following two merits. These effects are not only obtained by combining images in diastole and systole, but are obtained by using a combination of multiple images in different time phases.

まず1つ目のメリットは、注目領域の推定精度を安定させる効果である。すなわち、複数のフレームを使うことで推定処理のロバスト性が向上する。超音波診断画像の動画像では、各フレームの画質(コントラストやノイズの程度)にバラつきが生じてしまうことがしばしばある。すなわち、動画像中のあるフレームについては注目領域の輪郭がはっきりと描出されており視認性が高かったとしても、別のフレームでは輪郭の視認性が低い場合がある。したがって、動画像からある1つのフレームを取り出して領域推定処理を行う際には、画質の低いフレームが処理対象になってしまうことが起こりうるが、画質の低い画像に対して領域抽出処理を行うと、抽出精度が下がってしまう恐れがある。そのような場合に、画質の低い画像における領域抽出精度を高めるためには、該画像と相関のある画質の高い画像を利用する方法が考えられる。前提として、入力の3次元画像に画質の高いフレームが含まれていることが必要にはなるが、複数のフレームに基づいて領域抽出処理を行うことで、平均的な抽出精度の向上と、抽出精度のバラつきを小さくする効果が期待できる。すなわち、推定処理のロバスト性の向上が期待できる。 The first merit is the effect of stabilizing the estimation accuracy of the region of interest. That is, the robustness of the estimation process is improved by using a plurality of frames. In the moving image of the ultrasonic diagnostic image, the image quality (contrast and the degree of noise) of each frame often varies. That is, even if the outline of the region of interest is clearly drawn for a certain frame in the moving image and the visibility is high, the visibility of the outline may be low for another frame. Therefore, when one frame is extracted from a moving image and the area estimation process is performed, a frame with low image quality may be processed, but the area extraction process is performed on the image with low image quality. Then, the extraction accuracy may decrease. In such a case, in order to improve the region extraction accuracy of an image having low image quality, a method of using an image having high image quality that correlates with the image can be considered. As a premise, it is necessary that the input 3D image contains frames with high image quality, but by performing the area extraction process based on multiple frames, the average extraction accuracy is improved and extraction is performed. The effect of reducing the variation in accuracy can be expected. That is, improvement in robustness of estimation processing can be expected.

2つ目のメリットは、異なるフレーム間における注目領域の位置や大きさの関係性を考慮した領域推定処理ができる点である。心臓の動きを捉えた画像を例に挙げると、拡張期の画像と収縮期の画像との間では、心房や心室の大きさやそれらの解剖学的構造が画像中に写る場所について、相関があることが想像できる。しかし、異なるフレームについて独立に注目領域の推定処理を行うと、フレーム間の関係性を考慮せずに処理を行うことになるため、推定結果の領域の大小関係など、フレーム間の関係性が失われてしまう可能性がある。例えば、本来であれば収縮期における注目領域よりも拡張期における注目領域の方が大きい面積を得るはずである場合も、拡張期の推定結果の方が小さくなるような結果を得る可能性がある。上記実施形態を複数のフレームの画像を扱うように拡張することで、異なるフレーム間における注目領域の関係性を考慮した部分空間が得られるため、異なるフレーム間の推定結果について、フレーム間の本来の関係性を保つような出力結果が得られる。 The second merit is that the area estimation process can be performed in consideration of the relationship between the positions and sizes of the areas of interest between different frames. Taking an image that captures the movement of the heart as an example, there is a correlation between the diastolic image and the systolic image regarding the size of the atria and ventricles and where their anatomical structure appears in the image. Can be imagined. However, if the region of interest is estimated independently for different frames, the processing is performed without considering the relationship between the frames, so the relationship between the frames, such as the magnitude relationship of the region of the estimation result, is lost. There is a possibility that it will be damaged. For example, even if the area of interest in diastole should be larger than the area of interest in systole, the estimated result of diastole may be smaller. .. By extending the above embodiment to handle images of a plurality of frames, a subspace considering the relationship of the region of interest between the different frames can be obtained. Therefore, the estimation result between the different frames is the original between the frames. The output result is such that the relationship is maintained.

なお、本変形例においても、学習データから構築した部分空間を表す行列を用いた行列演算により注目領域の輪郭情報を推定するため、精度の高い輪郭抽出結果を、より低い計算コストでユーザに提供できる。また、3次元画像を構成する組み合わせは、単一の検査における異なるフレーム(時相)の組み合わせだけでなく、過去画像と現在画像の組み合わせでもよい。また、異なる時刻の組み合わせだけでなく、複数の断面方向の2次元画像(例えば、四腔像と二腔像や、長軸像と短軸像)の組み合わせでもよい。また、複数フレーム、複数方向の断面画像の組み合わせでもよい。 In this modified example as well, since the contour information of the region of interest is estimated by matrix calculation using a matrix representing the subspace constructed from the learning data, a highly accurate contour extraction result is provided to the user at a lower calculation cost. it can. Further, the combination constituting the three-dimensional image may be a combination of a past image and a present image as well as a combination of different frames (time phases) in a single inspection. Further, not only a combination of different times but also a combination of two-dimensional images in a plurality of cross-sectional directions (for example, a four-cavity image and a two-cavity image, a long-axis image and a short-axis image) may be used. Further, a combination of a plurality of frames and cross-sectional images in a plurality of directions may be used.

(変形例2)
上記実施形態、及び、変形例1では、入力画像の画素値情報を既知の情報として、入力画像に対応する注目領域の輪郭情報を未知の情報として設定し、BPLP法によって未知の情報を推定する例を示した。しかし、既知の情報と未知の情報は別の設定をしてもよい。
(Modification 2)
In the above embodiment and the first modification, the pixel value information of the input image is set as known information, the contour information of the region of interest corresponding to the input image is set as unknown information, and the unknown information is estimated by the BPLP method. An example is shown. However, the known information and the unknown information may be set differently.

例えば、上記実施形態において、入力画像の画素値情報に加えて、注目領域の輪郭情報の少なくとも一部が事前に分かっている場合には、該輪郭情報も既知の情報として設定し、それ以外の輪郭情報を未知の情報として設定してもよい。例えば、既知の特徴点抽出などの手法を用いて注目領域の弁輪位置を検出し、その位置を既知の情報として設定してもよい。また、操作部35を介して、画像上の弁輪位置をユーザが手動で設定してもよい。例えば、輪郭情報bにおける点p1が弁輪位置だとすると、(x1,y1)を既知の情報として与えることができる。すなわち、ステップS103において、輪郭情報推定部53は、式(6)のx1,y1に相当する要素に取得した弁輪位置の座標を与え、式(7)のx1,y1に相当する対角要素の値を1に変更したうえで、式(5)により、p2〜p9の座標の推定を行う。 For example, in the above embodiment, when at least a part of the contour information of the region of interest is known in advance in addition to the pixel value information of the input image, the contour information is also set as known information, and other than that. The contour information may be set as unknown information. For example, the annulus position of the region of interest may be detected by using a method such as extraction of known feature points, and the position may be set as known information. Further, the user may manually set the annulus position on the image via the operation unit 35. For example, assuming that the point p1 in the contour information b is the annulus position, (x1, y1) can be given as known information. That is, in step S103, the contour information estimation unit 53 gives the acquired coordinates of the annulus position to the element corresponding to x1 and y1 of the equation (6), and the diagonal element corresponding to x1 and y1 of the equation (7). After changing the value of to 1, the coordinates of p2 to p9 are estimated by the equation (5).

また、変形例1においては、3次元画像の画素値情報を既知の情報として、3次元画像の各フレームに対応する注目領域の輪郭情報を未知の情報として設定し、BPLP法によって未知の情報を推定する例を示した。この場合においても、あるフレームにおける注目領域の少なくとも一部の輪郭情報が既知の場合には、該輪郭情報を既知の情報として設定してもよい。例えば、拡張期と収縮期の画像で構成される3次元画像が入力の場合で、かつ、拡張期における輪郭情報が予め分かっている場合や、ユーザにより該輪郭情報が指定されている場合は、収縮期の輪郭情報のみを未知の情報として設定してもよい。このように既知の情報を増やすことで、推定処理の際に使用できる情報が増えるため、未知の情報の推定処理の精度を高められる。 Further, in the first modification, the pixel value information of the three-dimensional image is set as known information, the contour information of the region of interest corresponding to each frame of the three-dimensional image is set as unknown information, and the unknown information is obtained by the BPLP method. An example to estimate is shown. Even in this case, if at least a part of the contour information of the region of interest in a certain frame is known, the contour information may be set as known information. For example, when a three-dimensional image composed of images of diastole and systole is input, and the contour information in the diastole is known in advance, or when the contour information is specified by the user, the contour information is specified. Only the contour information of the systole may be set as unknown information. By increasing the known information in this way, the information that can be used in the estimation process increases, so that the accuracy of the estimation process of the unknown information can be improved.

また別の例では、操作部35を介してユーザにより入力された輪郭情報や、注目領域の輪郭情報の部分空間情報などを用いて生成した輪郭情報に基づいて、画像の画素値情報をBPLP法によって推定するようにしてもよい。この場合は、輪郭情報を既知の情報として設定し、画像の画素値情報を未知の情報として設定すれば、上記実施形態と同様の手順で推定処理が実施できる。 In another example, the pixel value information of the image is obtained by the BPLP method based on the contour information input by the user via the operation unit 35, the contour information generated by using the subspace information of the contour information of the region of interest, and the like. It may be estimated by. In this case, if the contour information is set as known information and the pixel value information of the image is set as unknown information, the estimation process can be performed by the same procedure as in the above embodiment.

本変形例においても、学習データから構築した部分空間を表す行列を用いた行列演算により未知の情報を推定するため、低い計算コストでユーザに推定結果を提供できる効果は保たれる。 Also in this modified example, since the unknown information is estimated by the matrix operation using the matrix representing the subspace constructed from the learning data, the effect of providing the estimation result to the user at a low calculation cost is maintained.

上記は実施形態の一例であるが、本発明は、上記及び図面に示す実施形態に限定することなく、その要旨を変更しない範囲内で適宜変形して実施できるものである。 Although the above is an example of the embodiment, the present invention is not limited to the embodiment shown in the above and the drawings, and can be appropriately modified and implemented without changing the gist thereof.

<その他の実施形態>
また、開示の技術は例えば、システム、装置、方法、プログラム若しくは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インターフェイス機器、撮像装置、webアプリケーション等)から構成されるシステムに適用しても良いし、また、1つの機器からなる装置に適用しても良い。
<Other Embodiments>
Further, the disclosed technology can take an embodiment as a system, an apparatus, a method, a program, a recording medium (storage medium), or the like. Specifically, it may be applied to a system composed of a plurality of devices (for example, a host computer, an interface device, an imaging device, a web application, etc.), or it may be applied to a device composed of one device. good.

また、本発明の目的は、以下のようにすることによって達成されることはいうまでもない。すなわち、前述した実施形態の機能を実現するソフトウェアのプログラムコード(コ
ンピュータプログラム)を記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
Needless to say, the object of the present invention is achieved by doing the following. That is, a recording medium (or storage medium) in which a software program code (computer program) that realizes the functions of the above-described embodiment is recorded is supplied to the system or device. Needless to say, the storage medium is a computer-readable storage medium. Then, the computer (or CPU or MPU) of the system or device reads and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium realizes the function of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.

10 画像処理装置
51 画像取得部
52 部分空間情報取得部
53 輪郭情報推定部
54 表示処理部
55 部分空間情報選択部
10 Image processing device 51 Image acquisition unit 52 Subspace information acquisition unit 53 Contour information estimation unit 54 Display processing unit 55 Subspace information selection unit

Claims (16)

画像から注目領域の形状に関する情報である形状情報を推定する画像処理装置であって、
処理対象となる第1の画像を取得する画像取得手段と、
異なるデータセットを用いて生成された2つ以上の部分空間の情報を取得する部分空間情報取得手段と、
前記第1の画像の画素値情報に基づいて、前記2つ以上の部分空間の情報から第1の部分空間の情報を選択する部分空間情報選択手段と、
前記第1の部分空間の情報を用いて、前記第1の画像の画素値情報から前記第1の画像中の注目領域の形状情報を推定する推定手段と、を有し、
前記データセットは学習用の画像の画素値情報と注目領域の形状情報とを含んで構成されるサンプルデータを含むものであることを特徴とする画像処理装置。
An image processing device that estimates shape information, which is information about the shape of a region of interest, from an image.
An image acquisition means for acquiring the first image to be processed, and
A subspace information acquisition means for acquiring information on two or more subspaces generated using different data sets, and a subspace information acquisition means.
A subspace information selection means for selecting the information of the first subspace from the information of the two or more subspaces based on the pixel value information of the first image.
It has an estimation means for estimating the shape information of the region of interest in the first image from the pixel value information of the first image by using the information of the first subspace.
The data set is an image processing apparatus including sample data including pixel value information of an image for learning and shape information of a region of interest.
前記部分空間の情報は、前記データセットに含まれるサンプルデータの分布を表すものである
ことを特徴とする請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the information in the subspace represents the distribution of sample data included in the data set.
前記部分空間情報選択手段は、前記第1の画像の画素値情報と、各データセットに含まれるサンプルデータの画素値情報との類似性に基づいて、前記第1の画像と類似するサンプルデータが含まれるデータセットを特定し、前記特定されたデータセットから生成された部分空間の情報を前記第1の部分空間の情報として選択する
ことを特徴とする請求項1又は2に記載の画像処理装置。
In the subspatial information selection means, sample data similar to the first image is obtained based on the similarity between the pixel value information of the first image and the pixel value information of the sample data included in each data set. The image processing apparatus according to claim 1 or 2, wherein the included data set is specified, and the information of the subspace generated from the specified data set is selected as the information of the first subspace. ..
前記部分空間情報選択手段は、前記第1の画像の画素値情報を各データセットの画素値情報に関する部分空間へ投影・逆投影したときの再構築誤差に基づいて、前記第1の画像と各データセットとの類似性を評価する
ことを特徴とする請求項3に記載の画像処理装置。
The subspace information selection means and each of the first image and the first image based on the reconstruction error when the pixel value information of the first image is projected and back-projected to the subspace related to the pixel value information of each data set. The image processing apparatus according to claim 3, wherein the similarity with a data set is evaluated.
前記部分空間の情報は、前記データセットに含まれる複数のサンプルデータに対し統計解析を行うことにより得られた情報である
ことを特徴とする請求項1〜3のうちいずれか1項に記載の画像処理装置。
The item according to any one of claims 1 to 3, wherein the information of the subspace is information obtained by performing statistical analysis on a plurality of sample data included in the data set. Image processing device.
前記統計解析は、主成分分析であり、
前記部分空間の情報は、主成分分析により得られた平均ベクトルと複数の固有ベクトルの情報を含む
ことを特徴とする請求項5に記載の画像処理装置。
The statistical analysis is a principal component analysis.
The image processing apparatus according to claim 5, wherein the subspace information includes information on an average vector obtained by principal component analysis and information on a plurality of eigenvectors.
前記部分空間情報取得手段は、予め生成された部分空間の情報を記憶する記憶装置から、前記2つ以上の部分空間の情報を取得する
ことを特徴とする請求項1〜6のうちいずれか1項に記載の画像処理装置。
Any one of claims 1 to 6, wherein the subspace information acquisition means acquires information on the two or more subspaces from a storage device that stores information on the subspaces generated in advance. The image processing apparatus according to the section.
前記第1の画像は、異なる時相の複数の画像の組で構成された画像である
ことを特徴とする請求項1〜7のうちいずれか1項に記載の画像処理装置。
The image processing apparatus according to any one of claims 1 to 7, wherein the first image is an image composed of a plurality of sets of images having different time phases.
前記推定手段は、前記異なる時相の複数の画像の画素値情報を連結したデータを前記第1の画像の画素値情報として用い、前記異なる時相の複数の画像夫々に対応する形状情報を連結したデータを前記第1の画像に対応する形状情報として用いる
ことを特徴とする請求項8に記載の画像処理装置。
The estimation means uses data obtained by concatenating pixel value information of a plurality of images of different time phases as pixel value information of the first image, and concatenates shape information corresponding to each of the plurality of images of different time phases. The image processing apparatus according to claim 8, wherein the obtained data is used as shape information corresponding to the first image.
前記第1の画像は、心臓の画像であり、
前記注目領域は、心房又は心室である
ことを特徴とする請求項1〜9のうちいずれか1項に記載の画像処理装置。
The first image is an image of the heart.
The image processing apparatus according to any one of claims 1 to 9, wherein the region of interest is an atrium or a ventricle.
前記第1の画像は、心臓の拡張期の画像と収縮期の画像の組で構成された画像である
ことを特徴とする請求項10に記載の画像処理装置。
The image processing apparatus according to claim 10, wherein the first image is an image composed of a set of an image of a diastole of a heart and an image of a systole.
前記画素値情報は、画像の画素値を並べたデータである
ことを特徴とする請求項1〜11のうちいずれか1項に記載の画像処理装置。
The image processing apparatus according to any one of claims 1 to 11, wherein the pixel value information is data in which pixel values of an image are arranged.
前記画素値情報は、学習用の複数の画像を主成分分析して得られた部分空間に対し、画像を投影することにより得られる、当該画像の主成分得点を並べたデータである
ことを特徴とする請求項1〜12のうちいずれか1項に記載の画像処理装置。
The pixel value information is characterized by being data obtained by arranging the principal component scores of the image obtained by projecting the image onto the subspace obtained by performing the principal component analysis of a plurality of images for learning. The image processing apparatus according to any one of claims 1 to 12.
前記形状情報は、前記注目領域の輪郭情報である
ことを特徴とする請求項1〜13のうちいずれか1項に記載の画像処理装置。
The image processing apparatus according to any one of claims 1 to 13, wherein the shape information is contour information of the region of interest.
画像から注目領域の形状に関する情報である形状情報を推定する画像処理方法であって、
処理対象となる第1の画像を取得するステップと、
異なるデータセットを用いて生成された2つ以上の部分空間の情報を取得するステップと、
前記第1の画像の画素値情報に基づいて、前記2つ以上の部分空間の情報から第1の部分空間の情報を選択するステップと、
前記第1の部分空間の情報を用いて、前記第1の画像の画素値情報から前記第1の画像中の注目領域の形状情報を推定するステップと、を有し、
前記データセットは学習用の画像の画素値情報と注目領域の形状情報とを含んで構成されるサンプルデータを含むものである
ことを特徴とする画像処理方法。
An image processing method that estimates shape information, which is information about the shape of a region of interest, from an image.
The step of acquiring the first image to be processed and
Steps to get information on two or more subspaces generated using different datasets,
A step of selecting the information of the first subspace from the information of the two or more subspaces based on the pixel value information of the first image, and
It has a step of estimating the shape information of the region of interest in the first image from the pixel value information of the first image using the information of the first subspace.
An image processing method characterized in that the data set includes sample data composed of pixel value information of an image for learning and shape information of a region of interest.
コンピュータを、請求項1〜14のうちいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the image processing apparatus according to any one of claims 1 to 14.
JP2019213099A 2019-11-26 2019-11-26 Image processing device, image processing method, and program Active JP7419037B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019213099A JP7419037B2 (en) 2019-11-26 2019-11-26 Image processing device, image processing method, and program
JP2024001746A JP7623526B2 (en) 2019-11-26 2024-01-10 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019213099A JP7419037B2 (en) 2019-11-26 2019-11-26 Image processing device, image processing method, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024001746A Division JP7623526B2 (en) 2019-11-26 2024-01-10 Image processing device, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2021086263A true JP2021086263A (en) 2021-06-03
JP7419037B2 JP7419037B2 (en) 2024-01-22

Family

ID=76087746

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019213099A Active JP7419037B2 (en) 2019-11-26 2019-11-26 Image processing device, image processing method, and program
JP2024001746A Active JP7623526B2 (en) 2019-11-26 2024-01-10 Image processing device, image processing method, and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024001746A Active JP7623526B2 (en) 2019-11-26 2024-01-10 Image processing device, image processing method, and program

Country Status (1)

Country Link
JP (2) JP7419037B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001031053A (en) * 1999-07-23 2001-02-06 Japan Polychem Corp Plastic bottle with label
JP2006061581A (en) * 2004-08-30 2006-03-09 Toshiba Corp Medical motion analysis apparatus, medical motion analysis method and medical motion analysis program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010211732A (en) 2009-03-12 2010-09-24 Nippon Telegr & Teleph Corp <Ntt> Object recognition device and method
US8917910B2 (en) 2012-01-16 2014-12-23 Xerox Corporation Image segmentation based on approximation of segmentation similarity
US9655563B2 (en) 2013-09-25 2017-05-23 Siemens Healthcare Gmbh Early therapy response assessment of lesions

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001031053A (en) * 1999-07-23 2001-02-06 Japan Polychem Corp Plastic bottle with label
JP2006061581A (en) * 2004-08-30 2006-03-09 Toshiba Corp Medical motion analysis apparatus, medical motion analysis method and medical motion analysis program

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ELCO OOST ET AL.: "Active Appearance Models in Medical Image Processing", MEDICAL IMAGING TECHNOLOGY,27 巻 (2009) 3 号, JPN6023036350, 31 May 2009 (2009-05-31), ISSN: 0005143805 *
小林 亮博ほか: "AAMの動的選択に基づく不特定人物の顔追跡", 情報処理学会研究報告 VOL.2008 NO.3, JPN6023036351, 17 January 2008 (2008-01-17), ISSN: 0005143804 *
西浦 正英 ほか: "部分形状拘束輪郭モデルによる超音波心壁動的輪郭抽出法", 電子情報通信学会論文誌 (J83ーDーII) 第1号, JPN6023036349, 25 January 2000 (2000-01-25), ISSN: 0005143806 *

Also Published As

Publication number Publication date
JP7419037B2 (en) 2024-01-22
JP7623526B2 (en) 2025-01-28
JP2024032762A (en) 2024-03-12

Similar Documents

Publication Publication Date Title
US20250045920A1 (en) System and method of mitral valve quantification
EP2537111B1 (en) Method and system for archiving subject-specific, three-dimensional information about the geometry of part of the body
US10867423B2 (en) Deformation field calculation apparatus, method, and computer readable storage medium
US9396576B2 (en) Method and apparatus for estimating the three-dimensional shape of an object
JP6824845B2 (en) Image processing systems, equipment, methods and programs
US20140064588A1 (en) Quantifying curvature of biological structures from imaging data
JP6995535B2 (en) Image processing equipment, image processing methods and programs
Lamata et al. Quality metrics for high order meshes: analysis of the mechanical simulation of the heart beat
JP2022111705A (en) Learning device, image processing device, medical imaging device, learning method and program
JP6383153B2 (en) Processing device, processing method, and program
JP6383182B2 (en) Image processing apparatus, image processing system, image processing method, and program
US11138736B2 (en) Information processing apparatus and information processing method
JP7516072B2 (en) IMAGE PROCESSING APPARATUS, MEDICAL IMAGE DIAGNOSIS APPARATUS, IMAGE PROCESSING METHOD, PROGRAM, AND LEARNING APPARATUS
JP2022111704A (en) Image processing device, medical imaging device, image processing method, and program
JP7356330B2 (en) Image processing device, image processing method, and program
Abdolali et al. Mandibular canal segmentation using 3D Active Appearance Models and shape context registration
JP7623526B2 (en) Image processing device, image processing method, and program
JP7551419B2 (en) Information processing device, information processing method, and program
Medina et al. Left ventricle myocardium segmentation in multi-slice computerized tomography
Krishnaswamy et al. A semi-automated method for measurement of left ventricular volumes in 3D echocardiography
JP7412223B2 (en) Image processing device, medical image diagnostic device, image processing method, program, and learning device
JP2022111706A (en) IMAGE PROCESSING APPARATUS AND IMAGE PROCESSING METHOD, MEDICAL IMAGING APPARATUS, AND PROGRAM
JP7346027B2 (en) Image processing device, image processing method, and program
JP2025034986A (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221019

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240110

R150 Certificate of patent or registration of utility model

Ref document number: 7419037

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150