[go: up one dir, main page]

JP7516072B2 - IMAGE PROCESSING APPARATUS, MEDICAL IMAGE DIAGNOSIS APPARATUS, IMAGE PROCESSING METHOD, PROGRAM, AND LEARNING APPARATUS - Google Patents

IMAGE PROCESSING APPARATUS, MEDICAL IMAGE DIAGNOSIS APPARATUS, IMAGE PROCESSING METHOD, PROGRAM, AND LEARNING APPARATUS Download PDF

Info

Publication number
JP7516072B2
JP7516072B2 JP2020034996A JP2020034996A JP7516072B2 JP 7516072 B2 JP7516072 B2 JP 7516072B2 JP 2020034996 A JP2020034996 A JP 2020034996A JP 2020034996 A JP2020034996 A JP 2020034996A JP 7516072 B2 JP7516072 B2 JP 7516072B2
Authority
JP
Japan
Prior art keywords
image
subject
images
input image
cross
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020034996A
Other languages
Japanese (ja)
Other versions
JP2021137116A (en
Inventor
格 音丸
啓太 中込
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Canon Medical Systems Corp
Original Assignee
Canon Inc
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc, Canon Medical Systems Corp filed Critical Canon Inc
Priority to JP2020034996A priority Critical patent/JP7516072B2/en
Publication of JP2021137116A publication Critical patent/JP2021137116A/en
Application granted granted Critical
Publication of JP7516072B2 publication Critical patent/JP7516072B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Description

本発明は、画像処理装置、医用画像診断装置、画像処理方法、プログラム、および学習装置に関する。 The present invention relates to an image processing device, a medical image diagnostic device, an image processing method, a program, and a learning device.

医用の分野では、種々の医用画像診断装置(モダリティ)によって取得される断面画像(断層像、医用画像とも称す)を用いた診断が行われている。この診断の中では、断面画像の種別(被検体のどの断面を撮像した画像であるかによる分類。以下、断面種別と称す)を識別し、断面種別を表す情報を断面画像に関連づけて表示または保存することが行われている。また、識別した断面種別に応じた画像処理を当該断面画像に施すことや、識別した情報を利用した解析処理を実行することが行われている。また、断面画像内の関心領域(例えば臓器や病変など)の輪郭を識別し、関心領域の面積・サイズ・形状などを診断に利用することもある。従来、断面種別や輪郭を識別する作業は一般に、人手で行う場合が多い。 In the medical field, diagnoses are made using cross-sectional images (also called tomograms or medical images) acquired by various medical imaging diagnostic devices (modalities). In this diagnosis, the type of cross-sectional image (classification according to which cross-section of the subject is imaged; hereafter referred to as cross-section type) is identified, and information indicating the cross-section type is associated with the cross-sectional image and displayed or saved. In addition, image processing according to the identified cross-section type is performed on the cross-sectional image, and analysis processing is performed using the identified information. In addition, the contour of a region of interest (such as an organ or a lesion) in the cross-sectional image may be identified, and the area, size, shape, etc. of the region of interest may be used for diagnosis. Conventionally, the task of identifying the cross-section type and contour is generally often performed manually.

特許文献1では、心臓を撮像した2次元超音波画像を対象として、その断面種別を自動的に識別する技術が開示されている。特許文献1では、一例として、心尖部アプローチ像の断面種別を左室長軸断面、四腔断面、五腔断面、二腔断面のなかから識別する例が記載されている。この技術では、各断面種別の代表例となる画像をテンプレートとして保持し、入力画像がどのテンプレートに近いかを算出することで断面種別を識別する。 Patent Document 1 discloses a technology for automatically identifying the type of cross-section of a two-dimensional ultrasound image of the heart. As an example, Patent Document 1 describes an example in which the cross-section type of an apical approach image is identified from among left ventricular long axis cross-section, four-chamber cross-section, five-chamber cross-section, and two-chamber cross-section. In this technology, images that are representative of each cross-section type are stored as templates, and the cross-section type is identified by calculating which template the input image is closest to.

国際公開第2007/058195号International Publication No. 2007/058195

特許文献1の方法は、単一の症例(断面画像)のみをテンプレートとして用いているため、断面画像の多様なバリエーションに対応するには不十分である。例えば、被検体(患者)によって臓器等の形状が異なるため、同じ断面種別の画像であっても、実際の断面画像は被検体によって異なっている。また、モダリティの機種・性能や撮像パラメータ(撮像条件)によっても、得られる断面画像に違いがある。それゆえ、断面種別の高精度な識別を実現するためには、このような断面画像の多様なバリエーション(ばらつき)への十分な対応が重要となる。 The method of Patent Document 1 uses only a single case (cross-sectional image) as a template, and is therefore insufficient to accommodate the diverse variations in cross-sectional images. For example, because the shapes of organs, etc. vary depending on the subject (patient), the actual cross-sectional images differ depending on the subject, even for images of the same cross-sectional type. In addition, the model and performance of the modality and the imaging parameters (imaging conditions) also affect the cross-sectional images obtained. Therefore, in order to achieve highly accurate identification of cross-sectional types, it is important to adequately accommodate such diverse variations (variations) in cross-sectional images.

そこで本発明者らは、多数の断面画像を学習データとして用い、それらの断面画像を統計解析することにより、断面画像の多様なバリエーションに対応した統計モデルを生成するというアプローチを検討している。 The inventors are therefore considering an approach that uses a large number of cross-sectional images as learning data and performs statistical analysis of those cross-sectional images to generate a statistical model that corresponds to the diverse variations in cross-sectional images.

本発明は、複数の医用画像を統計解析することによって生成される統計モデルの識別力を低下させることなく、そのデータサイズを可及的に小さくするための技術を提供することを目的とする。 The present invention aims to provide a technology for reducing the data size as much as possible without reducing the discriminatory power of a statistical model generated by statistically analyzing multiple medical images.

なお、前記目的に限らず、後述する発明を実施するための形態に示す各構成により導かれる作用効果であって、従来の技術によっては得られない作用効果を奏することも本明細書の開示の他の目的の1つとして位置付けることができる。 In addition to the above-mentioned objective, the achievement of effects that are derived from the configurations shown in the detailed description of the invention described below and that cannot be obtained by conventional techniques can also be considered as another objective of the disclosure of this specification.

本発明の第一態様は、モダリティにより得られスキャン領域に対応する被検体領域とそれ以外の領域とを含む断面における複数の被検体画像を含む学習データを前記複数の被検体画像のそれぞれにおける同じ対象範囲の画素群の情報を用いて統計解析することによって生成された統計モデルを取得するモデル取得部と、断面画像であって処理対象となる入力画像を取得する画像取得部と、前記統計モデルを用いて前記入力画像を用いた診断に利用される識別情報を推定する推定処理を行う推定部と、を備える画像処理装置であって、前記モデル取得部は、前記被検体画像の一部の範囲であり、かつ、前記複数の被検体画像のいずれにおいても前記被検体領域の少なくとも一部を含むように前記対象範囲を設定し、前記推定部は、前記推定処理において、前記対象範囲内の画素群を構成する各画素の通し番号と座標値とを対応付けた対応表を用いることにより、前記入力画像のうち前記対象範囲内の画素群を限定的に参照することを特徴とする画像処理装置を提供する。また、本発明の第一態様は、モダリティにより得られスキャン領域に対応する被検体領域とそれ以外の領域とを含む断面における複数の被検体画像を含む学習データを前記複数の被検体画像のそれぞれにおける同じ対象範囲の画素群の情報を用いて統計解析することによって生成された統計モデルを取得するモデル取得部と、断面画像であって処理対象となる入力画像を取得する画像取得部と、前記統計モデルを用いて前記入力画像を用いた診断に利用される識別情報を前記入力画像の前記対象範囲内の画素群の特徴を部分空間へ投影したのち元の画像空間に逆投影することにより再構築画像を生成する処理を含むことにより推定する推定処理を行う推定部と、を備える画像処理装置であって、前記モデル取得部は、前記被検体画像の一部の範囲であり、かつ、前記複数の被検体画像のいずれにおいても前記被検体領域の少なくとも一部を含むように前記対象範囲を設定することを特徴とする画像処理装置を提供する。また、本発明の第一態様は、モダリティにより得られスキャン領域に対応する被検体領域とそれ以外の領域とを含む断面における心臓の2次元超音波画像であって複数の被検体画像を含む学習データを前記複数の被検体画像のそれぞれにおける同じ対象範囲の画素群の情報を用いて統計解析することによって生成された統計モデルを取得するモデル取得部と、断面画像であって処理対象となる入力画像を取得する画像取得部と、前記統計モデルを用いて前記入力画像中の心尖部二腔像、心尖部三腔像、心尖部四腔像、短軸像、傍胸骨長軸像、および、プローブが被検体に接していない状態に取得される空中放置像のうちの少なくとも2以上の断面種別を推定する推定処理を行う推定部と、を備える画像処理装置であって、前記モデル取得部は、前記被検体画像の一部の範囲であり、かつ、前記複数の被検体画像のいずれにおいても前記被検体領域の少なくとも一部を含むように前記対象範囲を設定し、前記推定部は、前記推定処理において、前記対象範囲内の画素群を構成する各画素の通し番号と座標値とを対応付けた対応表を用いることにより、前記入力画像のうち前記対象範囲内の画素群を限定的に参照することを特徴とする画像処理装置を提供する。また、本発明の第一態様は、モダリティにより得られスキャン領域に対応する被検体領域とそれ以外の領域とを含む断面における心臓の2次元超音波画像であって複数の被検体画像を含む学習データを前記複数の被検体画像のそれぞれにおける同じ対象範囲の画素群の情報を用いて統計解析することによって生成された統計モデルを取得するモデル取得部と、断面画像であって処理対象となる入力画像を取得する画像取得部と、前記統計モデルを用いて前記入力画像中の左心室、左心房、右心室、右心房のうちの、少なくとも1領域以上を含む所定の領域の輪郭情報を推定する推定処理を行う推定部と、を備える画像処理装置であって、前記モデル取得部は、前記被検体画像の一部の範囲であり、かつ、前記複数の被検体画像のいずれにおいても前記被検体領域の少なくとも一部を含むように前記対象範囲を設定し、前記推定部は、前記推定処理において、前記対象範囲内の画素群を構成する各画素の通し番号と座標値とを対応付けた対応表を用いることにより、前記入力画像のうち前記対象範囲内の画素群を限定的に参照することを特徴とする画像処理装置を提供する。
A first aspect of the present invention provides an image processing apparatus comprising : a model acquisition unit that acquires a statistical model generated by statistically analyzing learning data including a plurality of subject images in cross sections including a subject region corresponding to a scan region obtained by a modality and other regions using information on a pixel group of the same target range in each of the plurality of subject images; an image acquisition unit that acquires an input image to be processed which is a cross-sectional image; and an estimation unit that performs an estimation process to estimate identification information to be used for diagnosis using the input image using the statistical model, wherein the model acquisition unit sets the target range to be a partial range of the subject image and to include at least a portion of the subject region in each of the plurality of subject images, and the estimation unit provides an image processing apparatus characterized in that, in the estimation process, the estimation unit refers to a pixel group within the target range in the input image in a limited manner by using a correspondence table that associates serial numbers and coordinate values of each pixel constituting a pixel group within the target range . Moreover, a first aspect of the present invention provides an image processing device comprising: a model acquisition unit that acquires a statistical model generated by statistically analyzing learning data including a plurality of object images in cross sections obtained by a modality and including an object region corresponding to a scan region and other regions, using information on a pixel group of the same target range in each of the plurality of object images; an image acquisition unit that acquires an input image to be processed, which is a cross-sectional image; and an estimation unit that performs an estimation process to estimate identification information used in diagnosis using the input image using the statistical model, by projecting features of a pixel group within the object range of the input image onto a subspace and then back-projecting them into an original image space to generate a reconstructed image, wherein the model acquisition unit sets the object range to be a portion of the object images and to include at least a portion of the object region in each of the plurality of object images. Moreover, a first aspect of the present invention provides an image processing apparatus including: a model acquisition unit that acquires a statistical model generated by statistically analyzing learning data including a plurality of subject images, the learning data being two-dimensional ultrasound images of the heart in a cross section including a subject region corresponding to a scan region obtained by a modality and other regions, using information on a pixel group of the same target range in each of the plurality of subject images ; an image acquisition unit that acquires an input image to be processed, the input image being a cross-sectional image; and an estimation unit that performs an estimation process using the statistical model to estimate at least two or more cross-section types from among an apical two-chamber view, an apical three-chamber view, an apical four-chamber view, a short axis view, a parasternal long axis view, and an air -left image acquired with a probe not in contact with the subject, wherein the model acquisition unit sets the target range to be a portion of the subject image and to include at least a portion of the subject region in each of the plurality of subject images, and the estimation unit provides an image processing apparatus characterized in that, in the estimation process, the estimation unit refers to a pixel group within the target range in the input image in a limited manner by using a correspondence table that associates serial numbers and coordinate values of each pixel constituting the pixel group within the target range . Moreover, a first aspect of the present invention provides an image processing apparatus comprising : a model acquisition unit that acquires a statistical model generated by statistically analyzing learning data including a plurality of subject images, the learning data being two-dimensional ultrasound images of the heart in a cross section including a subject region corresponding to a scan region obtained by a modality and other regions, using information on a pixel group of the same target range in each of the plurality of subject images ; an image acquisition unit that acquires an input image to be processed, the input image being a cross-sectional image; and an estimation unit that performs an estimation process to estimate contour information of a predetermined region including at least one of the left ventricle, the left atrium, the right ventricle, and the right atrium in the input image using the statistical model, wherein the model acquisition unit sets the target range to be a portion of the subject image and to include at least a portion of the subject region in each of the plurality of subject images, and the estimation unit provides an image processing apparatus characterized in that, in the estimation process, the estimation unit refers to a pixel group within the target range in the input image in a limited manner by using a correspondence table that associates serial numbers and coordinate values of each pixel constituting the pixel group within the target range .

本発明の第二態様は、断面画像であって処理対象となる医用画像を入力画像として取得する画像取得部と、モダリティによるスキャン領域に対応する被検体領域とそれ以外の領域とを含む断面画像であって心臓の2次元超音波画像である複数の医用画像間においてそれぞれ対応する画像領域の画素情報を統計解析することによって生成される統計モデルを用いて、前記入力画像中の心尖部二腔像、心尖部三腔像、心尖部四腔像、短軸像、傍胸骨長軸像、および、プローブが被検体に接していない状態に取得される空中放置像のうちの少なくとも2以上の断面種別を推定する推定処理を行う推定部と、を備えることを特徴とする医用画像診断装置を提供する。また、本発明の第二態様は、断面画像であって処理対象となる医用画像を入力画像として取得する画像取得部と、モダリティによるスキャン領域に対応する被検体領域とそれ以外の領域とを含む断面画像であって心臓の2次元超音波画像である複数の医用画像間においてそれぞれ対応する画像領域の画素情報を統計解析することによって生成される統計モデルを用いて、前記入力画像中の左心室、左心房、右心室、右心房のうちの、少なくとも1領域以上を含む所定の領域の輪郭情報を推定する推定処理を行う推定部と、を備えることを特徴とする医用画像診断装置を提供する。
A second aspect of the present invention provides a medical image diagnostic device comprising: an image acquisition unit that acquires as an input image a medical image which is a cross-sectional image to be processed; and an estimation unit that performs an estimation process to estimate at least two or more cross-sectional types from an apical two-chamber view, an apical three-chamber view, an apical four-chamber view, a short axis view, a parasternal long axis view, and an air-left image acquired with the probe not in contact with the subject, using a statistical model generated by statistically analyzing pixel information of corresponding image regions among a plurality of medical images which are cross-sectional images including a subject region corresponding to a scan region by a modality and other regions, the medical images being two-dimensional ultrasound images of the heart . In addition, a second aspect of the present invention provides a medical image diagnostic apparatus comprising: an image acquisition unit that acquires, as an input image, a medical image which is a cross-sectional image and is to be processed; and an estimation unit that performs an estimation process to estimate contour information of a predetermined region in the input image, the predetermined region including at least one of the left ventricle, the left atrium, the right ventricle, and the right atrium, using a statistical model generated by statistically analyzing pixel information of corresponding image regions among a plurality of medical images which are cross-sectional images including a subject region corresponding to a scan region by a modality and other regions, the medical images being two-dimensional ultrasound images of the heart.

本発明の第三態様は、モダリティにより得られスキャン領域に対応する被検体領域とそれ以外の領域とを含む断面における複数の被検体画像を含む学習データを前記複数の被検体画像のそれぞれにおける同じ対象範囲の画素群の情報を用いて統計解析することによって生成された統計モデルを取得するステップと、断面画像であって処理対象となる入力画像を取得するステップと、前記統計モデルを用いて前記入力画像を用いた診断に利用される識別情報を推定する推定処理を行うステップと、を含む画像処理方法であって、前記統計モデルを取得するステップは、前記被検体画像の一部の範囲であり、かつ、前記複数の被検体画像のいずれにおいても前記被検体領域の少なくとも一部を含むように前記対象範囲を設定し、前記推定処理を行うステップは、前記推定処理において、前記対象範囲内の画素群を構成する各画素の通し番号と座標値とを対応付けた対応表を用いることにより、前記入力画像のうち前記対象範囲内の画素群を限定的に参照することを特徴とする画像処理方法を提供する。また、本発明の第三態様は、モダリティにより得られスキャン領域に対応する被検体領域とそれ以外の領域とを含む断面における複数の被検体画像を含む学習データを前記複数の被検体画像のそれぞれにおける同じ対象範囲の画素群の情報を用いて統計解析することによって生成された統計モデルを取得するステップと、断面画像であって処理対象となる入力画像を取得するステップと、前記統計モデルを用いて前記入力画像を用いた診断に利用される識別情報を前記入力画像の前記対象範囲内の画素群の特徴を部分空間へ投影したのち元の画像空間に逆投影することにより再構築画像を生成する処理を含むことにより推定する推定処理を行うステップと、を含む画像処理方法であって、前記統計モデルを取得するステップは、前記被検体画像の一部の範囲であり、かつ、前記複数の被検体画像のいずれにおいても前記被検体領域の少なくとも一部を含むように前記対象範囲を設定することを特徴とする画像処理方法を提供する。 A third aspect of the present invention provides an image processing method including the steps of: acquiring a statistical model generated by statistically analyzing learning data including a plurality of subject images in cross sections obtained by a modality and including a subject region corresponding to a scan region and other regions, using information on a pixel group of the same target range in each of the plurality of subject images; acquiring an input image to be processed, which is a cross-sectional image ; and performing an estimation process to estimate identification information used in diagnosis using the input image, using the statistical model; wherein the step of acquiring the statistical model sets the target range to be a partial range of the subject image and to include at least a portion of the subject region in each of the plurality of subject images ; and the step of performing the estimation process provides an image processing method characterized in that the estimation process refers to a pixel group within the target range in the input image in a limited manner by using a correspondence table that associates serial numbers and coordinate values of each pixel constituting a pixel group within the target range . Further, a third aspect of the present invention provides an image processing method including the steps of: acquiring a statistical model generated by statistically analyzing learning data including a plurality of subject images in cross sections obtained by a modality and including a subject region corresponding to a scan region and other regions, using information on a pixel group of the same target range in each of the plurality of subject images; acquiring an input image to be processed, which is a cross-sectional image; and performing an estimation process of estimating identification information used in diagnosis using the input image using the statistical model, by projecting features of a pixel group within the target range of the input image onto a subspace and then back-projecting it into an original image space to generate a reconstructed image, wherein the step of acquiring the statistical model includes setting the target range to be a partial range of the subject images and to include at least a portion of the subject region in each of the plurality of subject images.

本発明の第四態様は、上記画像処理方法の各ステップをコンピュータに実行させるためのプログラムを提供する。 A fourth aspect of the present invention provides a program for causing a computer to execute each step of the image processing method described above.

本発明の第五態様は、モダリティにより得られ前記モダリティによるスキャン領域に対応する被検体領域とそれ以外の領域とを含む医用画像を学習に用いる学習装置であって、複数の被検体画像を含む学習データを準備する学習データ準備部と、前記複数の被検体画像に対して一律に適用される対象範囲を取得する対象範囲取得部と、前記複数の被検体画像それぞれにおける前記対象範囲内画素群の情報を統計解析することによって統計モデルを生成するモデル生成部と、を備え、前記対象範囲は、前記被検体画像の一部の範囲であり、かつ、前記複数の被検体画像のいずれにおいても前記被検体領域の少なくとも一部を含むように、設定されることを特徴とする学習装置を提供する。 A fifth aspect of the present invention provides a learning device that uses medical images obtained by a modality and including a subject region corresponding to a scan region by the modality and other regions for learning, the learning device comprising: a learning data preparation unit that prepares learning data including a plurality of subject images; a target range acquisition unit that acquires a target range that is uniformly applied to the plurality of subject images; and a model generation unit that generates a statistical model by statistically analyzing information on a group of pixels within the target range in each of the plurality of subject images, wherein the target range is set to be a portion of the subject image and to include at least a portion of the subject region in each of the plurality of subject images .

本発明によれば、複数の医用画像を統計解析することによって生成される統計モデルの識別力を低下させることなく、そのデータサイズを可及的に小さくすることが可能となる。 The present invention makes it possible to reduce the data size as much as possible without reducing the discriminatory power of a statistical model generated by statistically analyzing multiple medical images.

実施形態に係る画像処理システムの構成例を示す図。FIG. 1 is a diagram showing an example of the arrangement of an image processing system according to an embodiment. 心尖部二腔像、心尖部三腔像、心尖部四腔像、空中放置像の例を示す図。FIG. 1 shows examples of an apical two-chamber view, an apical three-chamber view, an apical four-chamber view, and an air-standing view. 画像処理装置の処理手順の例を示すフローチャート。10 is a flowchart showing an example of a processing procedure of the image processing device. 学習データから統計モデルを生成する学習処理の例を示すフローチャート。1 is a flowchart showing an example of a learning process for generating a statistical model from learning data. 固有ベクトルの数と累積寄与率の関係の例を示すグラフ。13 is a graph showing an example of the relationship between the number of eigenvectors and the cumulative contribution rate. 断面種別の識別処理の例を示すフローチャート。11 is a flowchart showing an example of a cross-section type identification process.

以下、図面を参照して、本発明の実施形態を例示的に詳しく説明する。ただし、この実施形態に記載されている構成要素はあくまで例示であり、本発明の技術的範囲は、特許請求の範囲によって確定されるのであって、以下の個別の実施形態によって限定されるわけではない。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings. However, the components described in this embodiment are merely examples, and the technical scope of the present invention is determined by the claims, and is not limited to the individual embodiments described below.

本発明の実施形態に係る画像処理装置は、被検体領域とそれ以外の領域とを含む複数の医用画像間においてそれぞれ対応する画像領域の画素情報を統計解析することによって生成される統計モデルを用いて、医用画像に対する推定処理を行う機能を提供する。推定処理は、例えば、医用画像の断面種別を推定する処理、医用画像中の所定の領域の輪郭情報
を推定する処理などであるが、これらに限られず他の推定処理を含んでいてもよい。断面種別とは、被検体のどの断面を撮像した画像であるかという観点による分類である。ここでは、画像処理装置を例にして説明するが、医用画像診断装置に本発明を適用してもよい。
The image processing device according to the embodiment of the present invention provides a function of performing estimation processing on a medical image using a statistical model generated by statistically analyzing pixel information of corresponding image regions among a plurality of medical images including a subject region and other regions. The estimation processing is, for example, a process of estimating a cross-section type of a medical image, a process of estimating contour information of a predetermined region in a medical image, etc., but is not limited to these and may include other estimation processing. The cross-section type is a classification from the viewpoint of which cross-section of the subject is captured in the image. Here, an image processing device is used as an example for explanation, but the present invention may also be applied to a medical image diagnostic device.

医用画像は、モダリティと呼ばれる撮像装置によって取得された、被検体(人体など)の内部の構造を表す画像であり、断面画像、断層像、再構成画像などとも呼ばれる。例えば、超音波診断装置によって得られる超音波画像、X線CT装置によって得られるX線CT画像、MRI装置によって得られるMRI画像などが医用画像の典型例である。このような医用画像は、例えば、医用分野において、診断、検査、研究などに利用される。 A medical image is an image that shows the internal structure of a subject (such as the human body) and is acquired by an imaging device called a modality. It is also called a cross-sectional image, tomographic image, or reconstructed image. Typical examples of medical images include ultrasound images obtained by ultrasound diagnostic devices, X-ray CT images obtained by X-ray CT devices, and MRI images obtained by MRI devices. Such medical images are used, for example, in the medical field for diagnosis, examination, research, and so on.

医用画像は、被検体領域とそれ以外の領域とを含んでいる。被検体領域とは、推定処理に必要な情報を含む領域をいい、典型的には、医用画像のうち被検体の内部に対応する領域(被検体の内部の構造や特性などが画像化された領域)である。被検体の内部に対応する領域は、モダリティによるスキャン領域に対応する領域と言い換えてもよい。ただし、例えば、被検体内に存在する所定の対象物(臓器、組織、構造、病変など)の情報のみが推定処理に利用されるのであれば、被検体の内部に対応する領域全体ではなく、所定の対象物に対応する領域を被検体領域としてもよい。 A medical image includes a subject region and other regions. The subject region refers to a region that contains information necessary for the estimation process, and is typically a region of a medical image that corresponds to the inside of a subject (a region in which the internal structure and characteristics of the subject are imaged). The region that corresponds to the inside of a subject may also be referred to as a region that corresponds to a scan region by a modality. However, for example, if only information on a specific object (organ, tissue, structure, lesion, etc.) present in the subject is used in the estimation process, the subject region may be the region that corresponds to the specific object, rather than the entire region that corresponds to the inside of the subject.

学習データとして準備された複数の医用画像は、被検体領域の形状が異なる医用画像を含んでいる可能性がある。そこで、学習時には、すべての医用画像間において対応する画像領域(計算対象範囲とも呼ぶ)を設定し、複数の医用画像のそれぞれにおける画像領域内の画素群の情報を統計解析することによって統計モデルを生成する、という手順を採る。ここで、画像領域は、医用画像の一部の範囲であり、かつ、複数の医用画像のいずれにおいても被検体領域の少なくとも一部を含むように、設定される。このような方法により、被検体領域の形状の異同にかかわらず、学習データとして与えられたすべての医用画像のそれぞれから、被検体領域の画像特徴をかならず含んだ画素群が抽出される。したがって、表現力および識別力の高い統計モデルが生成可能である。また、被検体領域の形状の異同にかかわらず、すべての医用画像のそれぞれから、同一サイズ(同一ピクセル数)の画素群が抽出されるため、統計解析への適用が容易である。加えて、医用画像の全体を用いるのに比べて、統計モデルのデータサイズを削減することもできる。よって、統計モデルの表現力および識別力を低下させることなく、そのデータサイズを可及的に小さくすることが可能となる。 The multiple medical images prepared as training data may include medical images with different shapes of the subject region. Therefore, during training, a procedure is adopted in which corresponding image regions (also called calculation ranges) are set between all medical images, and a statistical model is generated by statistically analyzing information on pixel groups within the image regions in each of the multiple medical images. Here, the image region is set to be a part of the range of the medical image and to include at least a part of the subject region in each of the multiple medical images. With this method, a pixel group that always includes the image features of the subject region is extracted from each of all medical images provided as training data, regardless of whether the shape of the subject region is the same. Therefore, a statistical model with high expressiveness and discriminative power can be generated. Furthermore, since pixel groups of the same size (same number of pixels) are extracted from each of all medical images, regardless of whether the shape of the subject region is the same, it is easy to apply to statistical analysis. In addition, the data size of the statistical model can be reduced compared to using the entire medical image. Therefore, it is possible to reduce the data size as much as possible without reducing the expressiveness and discriminative power of the statistical model.

被検体領域の形状は、モダリティによるスキャン領域、モダリティの撮像パラメータ(撮像条件)、プローブの種類などによって異なり得る。逆に言うと、スキャン領域、撮像パラメータ(撮像条件)、プローブの種類などがわかれば、被検体領域の形状をある程度特定することができる。したがって、学習データとして、スキャン領域、撮像パラメータ(撮像条件)、プローブの種類のうち少なくともいずれかを利用してもよい。 The shape of the subject region may vary depending on the scan region of the modality, the imaging parameters (imaging conditions) of the modality, the type of probe, etc. In other words, if the scan region, imaging parameters (imaging conditions), type of probe, etc. are known, the shape of the subject region can be determined to some extent. Therefore, at least one of the scan region, imaging parameters (imaging conditions), and type of probe may be used as learning data.

本発明の実施形態に係る画像処理装置は、断面種別が既知の多数の断面画像(学習データ)を統計解析した結果に基づいて、処理対象となる医用画像(断面種別が未知の断面画像)の断面種別の推定ないし識別を行う点に特徴の一つを有する。具体的には、画像処理装置は、複数の断面種別にそれぞれ対応する複数の統計モデルを用い、複数の統計モデルのいずれが入力画像に良く当てはまるかを評価することによって入力画像の断面種別を識別する。例えば、夫々の統計モデルを用いて入力画像を再構築し、再構築された画像と入力画像の差異が最も小さい、言い換えると、入力画像を最も良く再現する統計モデルと対応付けられた断面種別を識別結果とする。 One of the features of the image processing device according to the embodiment of the present invention is that it estimates or identifies the cross-section type of a medical image to be processed (a cross-section image of unknown cross-section type) based on the results of statistical analysis of a large number of cross-section images (learning data) of known cross-section types. Specifically, the image processing device uses multiple statistical models corresponding to multiple cross-section types, respectively, and identifies the cross-section type of the input image by evaluating which of the multiple statistical models best fits the input image. For example, the input image is reconstructed using each statistical model, and the cross-section type associated with the statistical model that has the smallest difference between the reconstructed image and the input image, in other words, that best reproduces the input image, is determined as the identification result.

この場合の統計モデルは、断面種別が同じ複数の断面画像を統計解析することによって
生成されたモデルであり、その断面種別の画像の特徴の分布(統計的傾向)を表現するものである。統計モデルの生成(学習)は、例えば、学習装置によって、断面種別が同じ画像群を主成分分析し、その断面種別の画像群の特徴を表す部分空間を求めることにより行ってもよい。この場合、部分空間の情報が、当該断面種別に対応する統計モデルに該当する。なお、統計モデルは学習済モデルとも呼ばれる。
In this case, the statistical model is a model generated by statistically analyzing multiple cross-sectional images of the same cross-sectional type, and represents the distribution (statistical tendency) of the characteristics of the images of that cross-sectional type. The statistical model may be generated (learned) by, for example, performing principal component analysis on a group of images of the same cross-sectional type using a learning device, and obtaining a subspace that represents the characteristics of the group of images of that cross-sectional type. In this case, the information of the subspace corresponds to the statistical model corresponding to the cross-sectional type. The statistical model is also called a learned model.

従来技術では、単一の症例(画像)のみから生成したテンプレートを用いていたため、被検体、撮像装置、撮像条件等による断面画像のばらつきに起因して、入力画像とテンプレートの間の特徴が乖離し、識別精度が低下するという課題があった。これに対し本発明の実施形態に係る画像処理装置では、複数の断面画像から生成した統計モデルを用いることで、多数症例の統計的傾向に基づく識別が可能であり、従来技術に比べて識別精度の向上を図ることができる。 Conventional technology used templates generated from only a single case (image), which resulted in a problem of reduced recognition accuracy due to differences in the features between the input image and the template caused by variations in cross-sectional images due to the subject, imaging device, imaging conditions, etc. In contrast, an image processing device according to an embodiment of the present invention uses a statistical model generated from multiple cross-sectional images, making it possible to recognize cases based on the statistical trends of multiple cases, thereby improving recognition accuracy compared to conventional technology.

<実施形態>
実施形態に係る画像処理装置は、入力画像の断面種別を識別する装置である。本実施形態では、入力画像および学習データとして心臓の2次元超音波画像を用い、入力画像が心尖部二腔像、心尖部三腔像、心尖部四腔像、および空中放置像の4種類のいずれであるかを識別する、というケースを例示する。心尖部二腔像は、左心房・左心室の2腔が写った画像であり、心尖部三腔像は、左心房・左心室・右心室の3腔が写った画像であり、心尖部四腔像は、左右心房・左右心室の計4腔が写った画像である。また、空中放置像は、プローブが被検体に接しておらずいずれの腔も写っていない画像である。なお、これらは断面種別の一例であり、その他の種別の画像についても、同様の処理で識別可能である。
<Embodiment>
The image processing device according to the embodiment is a device for identifying the cross-section type of an input image. In this embodiment, a two-dimensional ultrasound image of the heart is used as the input image and learning data, and the input image is identified as one of four types, namely, an apical two-chamber image, an apical three-chamber image, an apical four-chamber image, and an air-left image. The apical two-chamber image is an image showing two chambers, the left atrium and the left ventricle, the apical three-chamber image is an image showing three chambers, the left atrium, the left ventricle, and the right ventricle, and the apical four-chamber image is an image showing a total of four chambers, the left and right atria and the left and right ventricles. The air-left image is an image in which the probe is not in contact with the subject and none of the cavities are shown. Note that these are examples of cross-section types, and other types of images can also be identified by similar processing.

以下、図1を用いて本実施形態の画像処理装置の構成および処理を説明する。図1は、本実施形態の画像処理装置を含む画像処理システム(医用画像処理システムともいう)の構成例を示すブロック図である。画像処理システムは、画像処理装置10およびデータベース22を備える。画像処理装置10は、ネットワーク21を介してデータベース22に通信可能な状態で接続されている。ネットワーク21は、例えばLAN(Local Area Network)やWAN(Wide Area Network)を含む。 The configuration and processing of the image processing device of this embodiment will be described below with reference to FIG. 1. FIG. 1 is a block diagram showing an example of the configuration of an image processing system (also called a medical image processing system) including the image processing device of this embodiment. The image processing system includes an image processing device 10 and a database 22. The image processing device 10 is connected to the database 22 in a communicable state via a network 21. The network 21 includes, for example, a LAN (Local Area Network) or a WAN (Wide Area Network).

データベース22は、多数の画像と各画像に関連付けられた情報とを保持し、管理する。データベース22に保持される画像は、断面種別が未知の画像と、断面種別が既知の画像とを含む。前者の画像は、画像処理装置10による断面種別の識別処理に供される。後者の画像は、少なくとも断面種別の情報(正解データ)が関連付けられており、統計モデルを生成するための学習データとして利用される。各画像には、超音波診断装置が当該画像を撮像した際の撮像パラメータ(撮像条件)などの情報が関連付けられていてもよい。画像処理装置10は、ネットワーク21を介して、データベース22が保持しているデータを取得することが可能である。 The database 22 holds and manages a large number of images and information associated with each image. The images held in the database 22 include images with unknown cross-section types and images with known cross-section types. The former images are used for cross-section type identification processing by the image processing device 10. The latter images are associated with at least cross-section type information (correct answer data) and are used as learning data for generating a statistical model. Each image may be associated with information such as imaging parameters (imaging conditions) when the ultrasound diagnostic device captured the image. The image processing device 10 is able to acquire data held in the database 22 via the network 21.

画像処理装置10は、通信IF(Interface)31(通信部)、ROM(Read Only Memory)32、RAM(Random Access Memory)33、記憶部34、操作部35、表示部36、および制御部37を備える。 The image processing device 10 includes a communication IF (Interface) 31 (communication unit), a ROM (Read Only Memory) 32, a RAM (Random Access Memory) 33, a storage unit 34, an operation unit 35, a display unit 36, and a control unit 37.

通信IF31(通信部)はLANカードなどにより構成され、外部装置(例えばデータベース22など)と画像処理装置10との通信を実現する。ROM32は、不揮発性のメモリなどにより構成され、各種プログラムや各種データを記憶する。RAM33は揮発性のメモリなどにより構成され、実行中のプログラムや作業中のデータを一時的に記憶する。記憶部34はHDD(Hard Disk Drive)などにより構成され、プログラムやデータを記憶する。操作部35は、キーボードやマウス、タッチパネルなどにより構成され、ユーザ(例えば医師や検査技師)からの指示を各種装置に入力する。 The communication IF 31 (communication unit) is composed of a LAN card or the like, and realizes communication between an external device (such as the database 22) and the image processing device 10. The ROM 32 is composed of non-volatile memory or the like, and stores various programs and various data. The RAM 33 is composed of volatile memory or the like, and temporarily stores programs being executed and data being worked on. The storage unit 34 is composed of a HDD (Hard Disk Drive) or the like, and stores programs and data. The operation unit 35 is composed of a keyboard, mouse, touch panel, etc., and inputs instructions from a user (such as a doctor or technician) to various devices.

表示部36はディスプレイなどにより構成され、各種情報をユーザに提示する。制御部37は、CPU(Central Processing Unit)などにより構成され、画像処理装置10における処理を統括制御する。制御部37は、その機能的な構成として、画像取得部51、統計モデル取得部52、推定部53、表示処理部54、計算対象範囲取得部55を備える。制御部37は、GPU(Graphics Processing Unit)やDSP(Digital Signal Processor)やFPGA(Field-Programmable Gate Array)などを備えてもよい。 The display unit 36 is configured with a display and the like, and presents various information to the user. The control unit 37 is configured with a CPU (Central Processing Unit) and the like, and controls the processing in the image processing device 10. The control unit 37 has, as its functional configuration, an image acquisition unit 51, a statistical model acquisition unit 52, an estimation unit 53, a display processing unit 54, and a calculation target range acquisition unit 55. The control unit 37 may also have a GPU (Graphics Processing Unit), a DSP (Digital Signal Processor), an FPGA (Field-Programmable Gate Array), etc.

画像取得部51は、処理対象となる入力画像をデータベース22から取得する。入力画像は、モダリティにより撮像された被検体の断面画像である。なお、画像取得部51は、入力画像をモダリティから直接取得してもよい。この場合、画像処理装置10はモダリティに接続された装置であってもよいし、モダリティの中(例えばコンソール)に実装された機能であってもよい。 The image acquisition unit 51 acquires an input image to be processed from the database 22. The input image is a cross-sectional image of a subject captured by a modality. The image acquisition unit 51 may acquire the input image directly from the modality. In this case, the image processing device 10 may be a device connected to the modality, or may be a function implemented within the modality (e.g., a console).

また、画像取得部51は、学習データをデータベース22から取得する。学習データは、入力画像とは異なる複数の断面画像(医用画像)からなる画像群であり、識別対象とする断面種別の夫々に属する断面画像を複数枚含んでいる。学習データにおける夫々の画像は、その断面種別の情報(心尖部二腔像・心尖部三腔像・心尖部四腔像・空中放置像のいずれかを表す識別子)を既知の値(付帯情報)として保持している。なお、統計モデルのロバスト性を高めるために、学習データとして用いる複数の断面画像は、互いに異なる被検体(患者)の画像であることが望ましい。ただし、同一の被検体(患者)を異なる条件(時刻、時期、モダリティの機種、撮像パラメータ等)で撮影した画像が学習データに含まれていてもよい。また、1心拍周期にわたって撮像された2次元動画像の夫々のフレームを学習データとして用いてもよい。学習データとして用いる断面画像の数は少なくとも数十から数百程度あるとよい。なお、学習データにおける断面種別情報の保持の仕方は、夫々の断面画像に付帯情報として断面種別情報を保持させる方法以外の方法でもよい。例えば、断面画像の識別子(画像ID、ファイル名など)と断面種別とが対応付けられたリストを用いたり、断面種別ごとに断面画像を格納するフォルダを分けたり、断面画像のファイル名やプロパティに断面種別情報を埋め込むなど、いかなる方法でもよい。 The image acquisition unit 51 also acquires the learning data from the database 22. The learning data is an image group consisting of multiple cross-sectional images (medical images) different from the input image, and includes multiple cross-sectional images belonging to each of the cross-sectional types to be identified. Each image in the learning data holds information on the cross-sectional type (an identifier representing one of the apical two-chamber image, apical three-chamber image, apical four-chamber image, and air-left image) as a known value (ancillary information). In order to increase the robustness of the statistical model, it is desirable that the multiple cross-sectional images used as the learning data are images of different subjects (patients). However, images of the same subject (patient) taken under different conditions (time, period, modality model, imaging parameters, etc.) may be included in the learning data. In addition, each frame of a two-dimensional moving image taken over one cardiac cycle may be used as the learning data. The number of cross-sectional images used as the learning data should be at least tens to hundreds. Note that the method of storing the cross-section type information in the learning data may be a method other than storing the cross-section type information as supplementary information for each cross-section image. For example, any method may be used, such as using a list in which the identifiers (image ID, file name, etc.) of the cross-section image are associated with the cross-section type, storing cross-section images in separate folders for each cross-section type, or embedding the cross-section type information in the file name or properties of the cross-section image.

本実施形態では入力画像および学習データが心臓領域を撮像した1枚の2次元超音波画像である場合を例に挙げて説明するが、他の種類(他の臓器、他の断面種別)の画像であってもよい。本発明は、複数の2次元画像(例えば、複数の時相の画像)や2次元の動画像に対しても適用可能である。また、モダリティの種類によらず適用可能である。 In this embodiment, an example will be described in which the input image and learning data are a single two-dimensional ultrasound image of the cardiac region, but other types of images (other organs, other cross-section types) may also be used. The present invention is also applicable to multiple two-dimensional images (e.g., images of multiple time phases) and two-dimensional video images. It is also applicable regardless of the type of modality.

統計モデル取得部52は、画像取得部51が取得した学習データに含まれる断面画像の夫々について画素値情報と断面種別情報を取得し、断面種別が一致する画像群毎に(すなわち、夫々の断面種別毎に)統計解析を行う。すなわち、本実施形態では、統計モデル取得部52は、学習データに含まれる心尖部二腔像の画像群・心尖部三腔像の画像群・心尖部四腔像の画像群・空中放置像の画像群に対して、それぞれ統計解析を行う。そして、統計モデル取得部52は、該統計解析の結果から、夫々の断面種別の統計モデルとして、夫々の断面種別の部分空間情報(部分空間を構成する基底の情報)を取得する。なお、あらかじめ生成された統計モデルがデータベース22又は記憶部34に保持されている場合は、統計モデル取得部52は、データベース22又は記憶部34から統計モデルを取得してもよい。すなわち、統計モデル取得部52は、学習データから統計モデルを生成する学習装置として機能してもよいし、あらかじめ生成され記憶装置に格納されている統計モデルを読み込む機能であってもよいし、両方の機能を有していてもよい。 The statistical model acquisition unit 52 acquires pixel value information and cross-section type information for each of the cross-sectional images included in the learning data acquired by the image acquisition unit 51, and performs statistical analysis for each group of images with the same cross-section type (i.e., for each cross-section type). That is, in this embodiment, the statistical model acquisition unit 52 performs statistical analysis for each of the image groups of the apical two-chamber image, the image group of the apical three-chamber image, the image group of the apical four-chamber image, and the image group of the air-left image included in the learning data. Then, from the result of the statistical analysis, the statistical model acquisition unit 52 acquires subspace information (information on the basis constituting the subspace) for each cross-section type as a statistical model for each cross-section type. Note that, if a statistical model generated in advance is stored in the database 22 or the storage unit 34, the statistical model acquisition unit 52 may acquire the statistical model from the database 22 or the storage unit 34. That is, the statistical model acquisition unit 52 may function as a learning device that generates a statistical model from learning data, may have a function of reading a statistical model generated in advance and stored in a storage device, or may have both functions.

推定部53は、統計モデルを用いて入力画像に対する推定処理を行う。本実施形態では、推定部53は、画像取得部51が取得した入力画像と、統計モデル取得部52で取得した統計モデルである部分空間情報に基づいて、入力画像の断面種別を識別する。表示処理部54は、入力画像と、該入力画像の断面種別の識別結果を、表示部36の画像表示領域内に表示させる。表示部36には、前記表示内容のほかにも、表示されている入力画像の縮尺情報や心電図の波形情報など、2次元超音波画像の観察に必要な種々の情報を表示することができる。 The estimation unit 53 performs estimation processing on the input image using a statistical model. In this embodiment, the estimation unit 53 identifies the cross-section type of the input image based on the input image acquired by the image acquisition unit 51 and the subspace information, which is the statistical model acquired by the statistical model acquisition unit 52. The display processing unit 54 displays the input image and the identification result of the cross-section type of the input image in the image display area of the display unit 36. In addition to the above-mentioned display contents, the display unit 36 can display various information necessary for observing two-dimensional ultrasound images, such as scale information of the displayed input image and waveform information of the electrocardiogram.

計算対象範囲取得部55は、データベース22から取得した学習データに含まれるすべての断面画像(医用画像)に対して一律に適用される計算対象範囲を取得する。計算対象範囲は、統計解析に用いる画素群、すなわち部分空間の計算に用いる画素群を定義する情報である。統計モデル取得部52および推定部53は、計算対象範囲取得部55で取得された計算対象範囲内の画素群の情報のみを用いて、統計モデルの算出や推定処理を行う。 The calculation target range acquisition unit 55 acquires a calculation target range that is uniformly applied to all cross-sectional images (medical images) included in the learning data acquired from the database 22. The calculation target range is information that defines the pixel group used in the statistical analysis, i.e., the pixel group used in the subspace calculation. The statistical model acquisition unit 52 and the estimation unit 53 perform the calculation of the statistical model and the estimation process using only the information of the pixel group within the calculation target range acquired by the calculation target range acquisition unit 55.

上記画像処理装置10の各構成要素は、コンピュータプログラムに従って機能する。例えば、制御部37(CPU)がRAM33を作業領域としてROM32又は記憶部34などに記憶されたコンピュータプログラムを読み込み、実行することで、各構成要素の機能が実現される。なお、画像処理装置10の構成要素の一部又はすべての機能が専用の回路を用いることで実現されてもよい。また、制御部37の構成要素の一部の機能が、クラウドコンピューティングを用いることで実現されてもよい。例えば、画像処理装置10とは異なる場所にある演算装置がネットワーク21を介して画像処理装置10と通信可能に接続され、画像処理装置10と演算装置がデータの送受信を行うことで、画像処理装置10又は制御部37の構成要素の機能が実現されてもよい。 Each component of the image processing device 10 functions according to a computer program. For example, the control unit 37 (CPU) reads and executes a computer program stored in the ROM 32 or the memory unit 34, etc., using the RAM 33 as a working area, thereby realizing the function of each component. Note that some or all of the functions of the components of the image processing device 10 may be realized by using a dedicated circuit. Also, some of the functions of the components of the control unit 37 may be realized by using cloud computing. For example, a calculation device located at a different location from the image processing device 10 may be communicably connected to the image processing device 10 via the network 21, and the image processing device 10 and the calculation device may send and receive data to each other, thereby realizing the functions of the components of the image processing device 10 or the control unit 37.

図2A~図2Dに、本実施形態において識別対象として例示する4種類の断面種別の断面画像を模式的に示す。図2A~図2Dはセクタ型プローブで撮像された2次元超音波画像であり、図2Aが心尖部二腔像、図2Bが心尖部三腔像、図2Cが心尖部四腔像、そして図2Dが空中放置像をそれぞれ表している。心尖部二腔像には、左心室203と左心房204の2つの領域、心尖部三腔像には、左心室205と左心房206と右心室207の3つの領域、心尖部四腔像には、左心室210と左心房211と右心室208と右心房209の4つの領域が夫々写っている。空中放置像(図2D)はプローブが被検体に接していない状態の画像であるため、いずれの領域も写っていない。 Figures 2A to 2D show schematic cross-sectional images of four types of cross-sections exemplified as objects to be identified in this embodiment. Figures 2A to 2D are two-dimensional ultrasound images captured with a sector probe, with Figure 2A showing an apical two-chamber image, Figure 2B showing an apical three-chamber image, Figure 2C showing an apical four-chamber image, and Figure 2D showing an airborne image. The apical two-chamber image shows two regions, the left ventricle 203 and the left atrium 204, the apical three-chamber image shows three regions, the left ventricle 205, the left atrium 206, and the right ventricle 207, and the apical four-chamber image shows four regions, the left ventricle 210, the left atrium 211, the right ventricle 208, and the right atrium 209. The airborne image (Figure 2D) shows none of the regions because it is an image in which the probe is not in contact with the subject.

次に、図3のフローチャートを用いて、図1の画像処理装置10の処理の例について説明する。 Next, an example of processing of the image processing device 10 in FIG. 1 will be described using the flowchart in FIG. 3.

(ステップS100:計算対象範囲の取得)
後段の統計モデルの算出(ステップS101)や推定処理(ステップS103)においては、断面画像や入力画像の画素値情報を計算に用いる。しかしながら、図2A~図2Dに示すように、モダリティで撮像される医用画像には被検体領域以外の画素が多く含まれており、画像全体を計算に利用すると無駄な計算負荷が生じるだけでなく、統計モデルのデータサイズの増大や識別力の低下を招く可能性がある。そこで、本実施形態では、医用画像の中の必要な範囲のみ(例えば、セクタ型プローブで得られた超音波画像の場合であれば、扇形のスキャン領域の部分など)を統計モデルの算出や推定処理に用いることとする。
(Step S100: Acquire calculation range)
In the calculation of the statistical model (step S101) and the estimation process (step S103) in the subsequent stages, pixel value information of the cross-sectional image and the input image is used for the calculation. However, as shown in Figures 2A to 2D, medical images captured by a modality contain many pixels other than the subject region, and using the entire image for calculation not only generates unnecessary calculation load, but also may lead to an increase in the data size of the statistical model and a decrease in discrimination power. Therefore, in this embodiment, only the necessary range of the medical image (for example, in the case of an ultrasound image obtained by a sector probe, a sector-shaped scan area, etc.) is used for the calculation of the statistical model and the estimation process.

まずステップS100において、計算対象範囲取得部55は、学習データに含まれる夫々の画像の画素値情報(画像データ)をデータベース22から取得する。そして、学習データ内の複数の画像の画素値情報を用いて、以降のステップで計算対象とする空間的範囲(計算対象範囲)を決定する。 First, in step S100, the calculation range acquisition unit 55 acquires pixel value information (image data) of each image included in the learning data from the database 22. Then, using the pixel value information of multiple images in the learning data, it determines the spatial range (calculation range) to be calculated in the subsequent steps.

計算対象範囲の決定方法を具体的に述べる。2次元超音波画像では、図2A~図2Dで示しているとおり、矩形で表現された画像領域のうち、信号が存在するのは、扇形のスキャン領域(以後、扇形領域又は被検体領域と称す)だけである。そのため、以降のステップS101やS103を実行する際には、扇形領域のみを計算の対象とすればよいことが分かる。しかしながら、単純に、各画像における扇形領域をそれぞれ計算対象範囲とすることはできない。なぜなら、以降のステップS101やS103では、画像を列ベクトル化したときのベクトルの次元(列ベクトルの要素数)が、全ての学習データと入力画像の間で同一である必要があるが、各画像の扇形領域の形状やサイズが同一とは限らないからである。症例が異なったり、モダリティの機種・性能や撮像パラメータ(撮像条件)が異なったりすると、扇形領域の中心角の大きさや有効画像表示サイズ(視野深度)が違う可能性がある。それゆえ、何らかの方法で、学習データと入力画像全てにおいて一律に適用し得る計算対象範囲を定義する必要がある。 A method for determining the calculation target range will be specifically described. In a two-dimensional ultrasound image, as shown in Figures 2A to 2D, among the image regions expressed as rectangles, only the sector-shaped scan region (hereinafter referred to as the sector region or subject region) contains a signal. Therefore, when performing the following steps S101 and S103, it is clear that only the sector region needs to be the calculation target. However, it is not possible to simply set the sector region in each image as the calculation target range. This is because, in the following steps S101 and S103, the dimension of the vector (the number of elements of the column vector) when the image is converted into a column vector needs to be the same between all the learning data and the input image, but the shape and size of the sector region of each image are not necessarily the same. If the case is different, or if the model and performance of the modality or the imaging parameters (imaging conditions) are different, the size of the central angle of the sector region and the effective image display size (depth of field of view) may be different. Therefore, it is necessary to define a calculation target range that can be applied uniformly to all the learning data and input images in some way.

そこで本実施形態では、計算対象範囲取得部55は、全ての学習データの(空間的正規化後の)被検体領域を全てカバーする領域を算出して、これを計算対象範囲として取得する。図2A~図2Dのように被検体領域が扇形の場合は、計算対象範囲もそれと略相似形の扇形になる。なお、コンベックス型プローブの場合、被検体領域はバウムクーヘン形となるため、計算対象範囲の形状もバウムクーヘン形にすればよい。バウムクーヘン形は、扇形の先端部を欠落させた環状扇形である。 In this embodiment, the calculation target range acquisition unit 55 calculates a region that covers all of the subject regions (after spatial normalization) of all learning data, and acquires this as the calculation target range. When the subject region is sector-shaped as in Figures 2A to 2D, the calculation target range will also be a sector of approximately similar shape. Note that in the case of a convex probe, the subject region will be shaped like a Baumkuchen, so the shape of the calculation target range should also be shaped like a Baumkuchen. The Baumkuchen shape is an annular sector with the tip of the sector missing.

また、リニア型プローブの場合、被検体領域は平行四辺形となるため、計算対象範囲の形状も平行四辺形にすればよい。また、CTやMRIのアキシャル断面画像の場合、被検体領域は略円形となるため、計算対象範囲の形状も略円形にすればよい。このように被検体領域の形状に合わせて計算対象範囲を設定することで、被検体領域以外の画素を可能な限り計算対象から除外することができる。この場合、計算対象範囲は矩形でない形状となり、被検体領域の外接矩形よりも面積が小さい範囲となる。 In addition, in the case of a linear probe, the subject region is a parallelogram, so the shape of the calculation range can also be a parallelogram. In the case of CT or MRI axial cross-sectional images, the subject region is approximately circular, so the shape of the calculation range can also be approximately circular. By setting the calculation range to match the shape of the subject region in this way, pixels outside the subject region can be excluded from the calculation as much as possible. In this case, the calculation range will be non-rectangular, and will have an area smaller than the circumscribing rectangle of the subject region.

ここで、全ての画像の被検体領域をもれなくカバーすることは必須ではなく、所定の割合(例えば98%)の画像の被検体領域をカバーし得る領域を計算対象範囲としてもよい。すなわち、いずれの画像においても扇形領域(被検体領域)の少なくとも一部が含まれるように計算対象範囲が設定されていればよい。なお、計算対象範囲の算出方法はこれに限らず、例えば、学習データの夫々から画像処理で心室・心房を抽出し、当該領域を全てカバーする扇形領域を計算対象範囲として取得してもよい。このとき、心室・心房の領域は、画像処理で算出した情報ではなく、人手で与えた情報であってもよい。計算対象範囲取得部55は、決定した計算対象範囲を以降のステップで使用するために、RAM33および記憶部34に格納する。 Here, it is not essential to cover all the subject regions of all images, and a region that can cover a predetermined percentage (e.g., 98%) of the subject regions of the images may be set as the calculation target range. In other words, it is sufficient that the calculation target range is set so that at least a part of the sector region (subject region) is included in each image. Note that the method of calculating the calculation target range is not limited to this, and for example, the ventricles and atria may be extracted from each of the learning data by image processing, and a sector region that covers the entire region may be obtained as the calculation target range. In this case, the ventricle and atrium regions may be information provided manually rather than information calculated by image processing. The calculation target range acquisition unit 55 stores the determined calculation target range in the RAM 33 and the storage unit 34 for use in subsequent steps.

なお、計算対象範囲は、操作者が手動で定義した範囲を用いるようにしてもよい。例えば、操作者が全学習データの心房・心室領域を包含する領域を目視で設定し、これを計算対象範囲としてデータベース22又は記憶部34に事前に保存しておいてもよい。この場合、計算対象範囲取得部55は、データベース22又は記憶部34に保存されている計算対象範囲を読み出すことで、計算対象範囲を取得する。 The calculation target range may be a range manually defined by the operator. For example, the operator may visually set a region that includes the atrial and ventricular regions of all learning data, and store this in advance in the database 22 or the storage unit 34 as the calculation target range. In this case, the calculation target range acquisition unit 55 acquires the calculation target range by reading out the calculation target range stored in the database 22 or the storage unit 34.

また、計算対象範囲は、被検体に起因する信号が存在する領域の全てを包含する領域でなくともよい。例えば、画素値が所定の閾値以上の領域を包含する領域を計算対象範囲とすることにより、被検体領域辺縁の画素値が低い(暗い)領域を除外しても良い。また、計算対象範囲は扇形に限らず、円形・三角形を含む任意の形状を用いることができる。 The calculation range does not have to include all of the areas where signals originating from the subject are present. For example, the calculation range may be set to include areas where pixel values are equal to or greater than a predetermined threshold, thereby excluding areas where pixel values are low (dark) on the periphery of the subject area. The calculation range is not limited to a sector shape, and any shape, including a circle or triangle, may be used.

定義された計算対象範囲は、具体的には、下式で示す通り、計算対象範囲内の画素群を
構成する各画素の通し番号(ピクセル番号)と座標値とを対応付けた対応表(ルックアップテーブル)として表現される。

Figure 0007516072000001

ここで、例えばm[1]は計算対象範囲における1番目のピクセルを表す記号で、x1・y1はそれぞれ該ピクセルのx座標値・y座標値である。そして、Kは計算対象範囲を構成するピクセルの数を表す。画像のx方向とy方向のピクセル数をそれぞれNx、Nyとしたときに、K<Nx×Nyである。 Specifically, the defined calculation range is expressed as a correspondence table (lookup table) that associates the serial numbers (pixel numbers) of each pixel that makes up the pixel group within the calculation range with their coordinate values, as shown in the formula below.
Figure 0007516072000001

Here, for example, m[1] is a symbol representing the first pixel in the calculation range, and x1 and y1 are the x-coordinate and y-coordinate values of the pixel, respectively. K represents the number of pixels that make up the calculation range. When the number of pixels in the x- and y-directions of the image are Nx and Ny, respectively, K<Nx×Ny.

なお、計算対象範囲の定義の保持方法は上記の例に限られず、例えば、計算対象範囲のピクセルに1、それ以外のピクセルに0が設定されたNx×Nyピクセルのマスク画像を利用してもよい。ただし、本実施形態のように計算対象範囲を通し番号(1~K)と座標値の対応表として保持する方法は、上で述べた、マスク画像を用いる一般的な方法に比べて次のような利点がある。マスク画像を用いる方法では、計算対象範囲に限定して何らかの処理を行う場合、Nx×Nyピクセル全てに対して、該ピクセルが計算対象範囲に含まれているか否か検査する必要がある。すなわち、Nx×Ny個のピクセルを走査する必要がある。一方、本実施形態の保持方法であれば、画像のうち計算対象範囲内のK個(Nx×Ny個よりも少ない)の画素群を直接的かつ限定的に参照することができる。そのため、処理時間を短縮することが可能である。 The method of storing the definition of the calculation range is not limited to the above example. For example, a mask image of Nx x Ny pixels in which the pixels in the calculation range are set to 1 and the other pixels are set to 0 may be used. However, the method of storing the calculation range as a correspondence table between serial numbers (1 to K) and coordinate values as in this embodiment has the following advantages over the general method of using a mask image described above. In the method using a mask image, when performing some processing limited to the calculation range, it is necessary to check whether each of the Nx x Ny pixels is included in the calculation range. In other words, it is necessary to scan Nx x Ny pixels. On the other hand, the storage method of this embodiment allows direct and limited reference to a group of K pixels (fewer than Nx x Ny) within the calculation range of the image. This makes it possible to reduce processing time.

(ステップS101:統計モデルの取得)
ステップS101において、統計モデル取得部52は、識別対象とする複数の断面種別にそれぞれ対応する複数の統計モデルを取得する。
(Step S101: Obtaining a statistical model)
In step S101, the statistical model acquisition unit 52 acquires a plurality of statistical models respectively corresponding to a plurality of cross-section types to be identified.

図4に、統計モデル取得部52によって実行される、学習データから統計モデルを生成する処理(学習処理)の一例を示す。 Figure 4 shows an example of a process (learning process) executed by the statistical model acquisition unit 52 to generate a statistical model from training data.

ステップS401において、統計モデル取得部52は、画像取得部51を介してデータベース22から学習データを取得する。そして、統計モデル取得部52は、学習データとして取得した複数の断面画像を、断面種別ごとにグループ分けする。本実施形態の場合は、心尖部二腔像・心尖部三腔像・心尖部四腔像・空中放置像という4つの画像群が生成される。以降のステップS402~S406の処理は、グループ分けされた画像群ごとに行われる。 In step S401, the statistical model acquisition unit 52 acquires learning data from the database 22 via the image acquisition unit 51. The statistical model acquisition unit 52 then groups the multiple cross-sectional images acquired as learning data by cross-sectional type. In the case of this embodiment, four image groups are generated: an apical two-chamber image, an apical three-chamber image, an apical four-chamber image, and an air-standing image. The subsequent processing of steps S402 to S406 is performed for each grouped image group.

ステップS402において、統計モデル取得部52は、画像群に含まれる各画像に対して空間的正規化を施す。空間的正規化は、画像同士のスケールを揃えるための処理である。学習データには、異なる機種で撮像された画像や、異なる撮像パラメータ(撮像条件)で撮像された画像などが混在している。それゆえ、画像内の被検体領域(画像において信号が存在する領域(図2A~図2Dの扇形の領域))の位置やサイズなどが、画像によって異なり得る。したがって、学習データとして集められた画像群をそのまま統計解析にかけると、被検体領域の位置やサイズのばらつきが統計モデルの表現力低下を招く可能性がある。そこで本実施形態では、統計解析に先立って空間的正規化を実行して、各画像における被検体領域の位置およびサイズを一致させる。 In step S402, the statistical model acquisition unit 52 performs spatial normalization on each image included in the image group. Spatial normalization is a process for aligning the scales of images. The learning data includes a mixture of images captured with different models and images captured with different imaging parameters (imaging conditions). Therefore, the position and size of the subject region (the region in the image where a signal exists (the sector-shaped region in Figures 2A to 2D)) in the image may differ depending on the image. Therefore, if the image group collected as learning data is subjected to statistical analysis as it is, the variation in the position and size of the subject region may lead to a decrease in the expressive power of the statistical model. Therefore, in this embodiment, spatial normalization is performed prior to statistical analysis to align the position and size of the subject region in each image.

具体的には、まず統計モデル取得部52は、学習データの画像の夫々について、プローブ位置座標と有効画像表示サイズを、空間的正規化に用いる情報として取得する。プローブ位置座標は、扇形の被検体領域の頂点(図2Aの符号201)の画像座標であり、有効画像表示サイズは、扇形の被検体領域の半径(図2Aの符号202)のピクセル数である
。有効画像表示サイズは、超音波画像の視野深度(デプス)に対応している。プローブ位置座標および有効画像表示サイズの情報は、例えば、学習データ内に保持されている既知の情報を読み込むことで取得できる。この既知の情報は、学習データを準備する者が作成した情報であってもよいし、画像を撮像したモダリティ(超音波診断装置)から得られた情報であってもよい。あるいは、統計モデル取得部52が、夫々の画像から画像処理で被検体領域(扇形の輪郭)を抽出することで、プローブ位置座標および有効画像表示サイズを取得してもよい。次に、統計モデル取得部52は、各画像の有効画像表示サイズが所定のピクセル数となるように、画像全体を拡大又は縮小する。所定のピクセル数、すなわち正規化処理後の有効画像表示サイズは、あらかじめ定義されている(例えば512ピクセル)。その後、統計モデル取得部52は、各画像のプローブ位置座標が全て一致するように画像を平行移動させる。
Specifically, the statistical model acquisition unit 52 first acquires the probe position coordinates and the effective image display size for each image of the learning data as information to be used for spatial normalization. The probe position coordinates are the image coordinates of the vertices of the sector-shaped subject region (reference numeral 201 in FIG. 2A), and the effective image display size is the number of pixels of the radius of the sector-shaped subject region (reference numeral 202 in FIG. 2A). The effective image display size corresponds to the field of view depth of the ultrasound image. The information of the probe position coordinates and the effective image display size can be acquired, for example, by reading known information held in the learning data. This known information may be information created by a person who prepares the learning data, or may be information obtained from a modality (ultrasound diagnostic device) that captures the image. Alternatively, the statistical model acquisition unit 52 may acquire the probe position coordinates and the effective image display size by extracting the subject region (contour of the sector) from each image by image processing. Next, the statistical model acquisition unit 52 enlarges or reduces the entire image so that the effective image display size of each image becomes a predetermined number of pixels. The predetermined number of pixels, i.e., the effective image display size after normalization processing, is predefined (for example, 512 pixels). After that, the statistical model acquisition unit 52 translates the images so that the probe position coordinates of all the images are the same.

なお、空間的正規化処理は必須ではない。例えば、被検体領域の位置およびサイズのばらつきが十分に小さいことがあらかじめわかっている場合には、空間的正規化処理を省略してもよい。また、本実施形態では有効画像表示サイズを用いて画像のスケーリングを行う場合を例に挙げて説明したが、他の情報を用いてもよい。例えば、画像サイズ(画像全体のx方向およびy方向のピクセル数)が画像ごとに異なる場合に、画像サイズを一致させるように正規化してもよい。また、ピクセル数ではなく、1ピクセル当たりの物理サイズを考慮して、1ピクセル当たりの物理サイズが一致するように正規化してもよい。これによって、有効画像表示サイズの情報を取得できない場合であっても、正規化処理を実行することができる。 Note that spatial normalization is not essential. For example, if it is known in advance that the variation in the position and size of the subject region is sufficiently small, spatial normalization may be omitted. In addition, although the present embodiment has been described with reference to an example in which the effective image display size is used to scale the image, other information may be used. For example, when the image size (the number of pixels in the x and y directions of the entire image) differs for each image, normalization may be performed to make the image sizes consistent. Furthermore, normalization may be performed by considering the physical size per pixel, rather than the number of pixels, so that the physical size per pixel is consistent. This allows normalization to be performed even when information on the effective image display size cannot be obtained.

ステップS403において、統計モデル取得部52は、空間的正規化を施した各画像のピクセル数を一致させるため、クロップ処理を行う。具体的には、統計モデル取得部52は、扇形の被検体領域を包含する所定サイズの矩形領域を定義し、各画像から該矩形領域を切り出す。このとき、該矩形領域のx方向とy方向のピクセル数をそれぞれNx、Nyとする。なお、本実施形態では空間的正規化処理の後にクロップ処理を行ったが、最初に画像から被検体領域を切り出し、切り出された画像のサイズがNx×Nyとなるように拡大又は縮小することでも同様の結果を得ることができる。 In step S403, the statistical model acquisition unit 52 performs a cropping process to make the number of pixels in each spatially normalized image consistent. Specifically, the statistical model acquisition unit 52 defines a rectangular area of a predetermined size that encompasses the sector-shaped subject area, and cuts out the rectangular area from each image. At this time, the number of pixels in the x and y directions of the rectangular area are set to Nx and Ny, respectively. Note that, although the cropping process is performed after the spatial normalization process in this embodiment, the same results can be obtained by first cutting out the subject area from the image, and then enlarging or reducing the size of the cut-out image to Nx x Ny.

ステップS404において、統計モデル取得部52は、各画像の計算対象範囲内の画素群の画素値情報を列ベクトルに変換する。クロップ処理後の画像はNx×Ny個の画素で構成されているが、列ベクトルに用いられる画素数はK個である。ある画像Iの画素値情報の列ベクトルaは、画像左上を原点(0,0)として、画素位置(x,y)における画素値をI(x,y)で表すものとして、以下の通り定義される。

Figure 0007516072000002

なお、処理対象の画像が1枚の2次元画像ではなく複数枚の2次元画像の場合には、それらの画素値情報を直列に並べたものを列ベクトルaとすればよい。 In step S404, the statistical model acquisition unit 52 converts pixel value information of the pixel group within the calculation range of each image into a column vector. The cropped image is composed of Nx×Ny pixels, but the number of pixels used in the column vector is K. The column vector a of pixel value information of a certain image I is defined as follows, with the upper left corner of the image being the origin (0,0) and the pixel value at pixel position (x, y) being represented by I(x, y).
Figure 0007516072000002

When the image to be processed is not one two-dimensional image but a plurality of two-dimensional images, the pixel value information of these images may be arranged in series to form column vector a.

ステップS405において、統計モデル取得部52は、画像群に含まれる全画像に対応する列ベクトル群を統計解析する。該統計解析には、主成分分析(PCA:Principal Component Analysis)などの既知の手法を用いればよく、Kernel PCAやWeighted PCAなどの手法を用いてもよい。また独立成分分析(ICA:Independent Component Analysis)といった主成分分析以外の統計解析手法を用いてもよい。以下、PCAを用いる場合を例に説明する。 In step S405, the statistical model acquisition unit 52 performs statistical analysis on the group of column vectors corresponding to all images included in the image group. For the statistical analysis, a known method such as Principal Component Analysis (PCA) may be used, and methods such as Kernel PCA and Weighted PCA may also be used. In addition, a statistical analysis method other than principal component analysis, such as Independent Component Analysis (ICA), may also be used. Below, an example will be described in which PCA is used.

PCAを用いることで、列ベクトル群の平均ベクトルと固有ベクトル、そして各固有ベクトルに対応する固有値が計算される。これらを用いることで、同じ断面種別の画像群の特徴を表す部分空間を下記式のように表現できる。dは部分空間内に存在する点である。

Figure 0007516072000003

ここで、aバーが平均ベクトル、eがi番目の基底における固有ベクトル、gが固有ベクトルeに対応する係数である。また、Lは計算に用いる固有ベクトルの数を表している。 By using PCA, the average vector and eigenvectors of the column vector group, and the eigenvalues corresponding to each eigenvector are calculated. By using these, a subspace that represents the characteristics of a group of images of the same cross-section type can be expressed as follows, where d is a point that exists in the subspace.
Figure 0007516072000003

Here, a bar is the mean vector, e i is an eigenvector in the i-th basis, g i is a coefficient corresponding to the eigenvector e i , and L represents the number of eigenvectors used in the calculation.

Lの値について述べる。Lの値は、学習データを必要十分に表現できる数(例えば、累積寄与率が95%を超える数)よりも大幅に小さい値であることが望ましい。具体的には、学習データの累積寄与率が50%以上70%以下となるようにLの値を設定するとよい。本発明者らの実験では、累積寄与率が50%より小さい場合に、断面種別の識別率の低下が認められた。これは、累積寄与率が小さすぎる場合は、統計モデルの表現力が低すぎて、同じ断面種別内での画像の多様性に十分に対応できないからと考えられる。また、累積寄与率が70%より大きい場合にも、断面種別の識別率の低下が認められた。これは、累積寄与率が大きすぎる場合は、統計モデルの表現力が高すぎ、全ての断面種別の統計モデルの当てはまりが良くなってしまうために、結果として識別力が低下するからと考えられる。 The value of L will now be described. It is desirable that the value of L is significantly smaller than the number that can adequately express the learning data (for example, the number at which the cumulative contribution rate exceeds 95%). Specifically, it is advisable to set the value of L so that the cumulative contribution rate of the learning data is 50% or more and 70% or less. In the inventors' experiments, a decrease in the identification rate of the cross-section type was observed when the cumulative contribution rate was smaller than 50%. This is thought to be because when the cumulative contribution rate is too small, the expressive power of the statistical model is too low and it is not possible to adequately handle the diversity of images within the same cross-section type. In addition, a decrease in the identification rate of the cross-section type was observed when the cumulative contribution rate was larger than 70%. This is thought to be because when the cumulative contribution rate is too large, the expressive power of the statistical model is too high, and the statistical model fits well to all cross-section types, resulting in a decrease in identification power.

また、累積寄与率が50%以上70%以内に収まるLの値の範囲が断面種別ごとに異なる場合であっても、Lの値を断面種別ごとに変化させるのではなく、同一の値に揃えることが望ましい。図5を例に挙げて説明する。図5は、固有ベクトルの数(Lの値)と累積寄与率の関係を示すグラフである。図5によると、空中放置像の方が他の種類(二腔像・三腔像・四腔像)に比べ、より小さい基底数で高い累積寄与率を示す。この例の場合、空中放置像のみLの値を他の3種類と比べて小さく設定するのではなく、すべての断面種別においてL=7~21と設定することが望ましい。なぜなら、発明者らの実験によると、後段のステップS604において再構築誤差を算出する際、他の種別よりもLの値が小さい種別は、目視で観察される違い以上に再構築誤差が大きく算出される場合があり、識別性能が低下する場合があるためである。このことから、本実施形態では、二腔像・三腔像・四腔像における累積寄与率をもとに、L=10ないし20という単一の値を採用する。 Even if the range of L values in which the cumulative contribution rate falls within the range of 50% to 70% differs for each cross-section type, it is desirable to make the L value uniform rather than changing it for each cross-section type. An example will be described with reference to FIG. 5. FIG. 5 is a graph showing the relationship between the number of eigenvectors (L value) and the cumulative contribution rate. According to FIG. 5, the image left in the air shows a higher cumulative contribution rate with a smaller basis number than the other types (two-chamber image, three-chamber image, and four-chamber image). In this example, it is desirable to set L = 7 to 21 for all cross-section types, rather than setting the L value for the image left in the air to be smaller than the other three types. This is because, according to experiments by the inventors, when calculating the reconstruction error in the subsequent step S604, a type with a smaller L value than the other types may be calculated to have a larger reconstruction error than the difference observed by the eye, and the identification performance may be reduced. For this reason, in this embodiment, a single value of L = 10 to 20 is adopted based on the cumulative contribution rate for the two-chamber image, three-chamber image, and four-chamber image.

ステップS406において、統計モデル取得部52は、統計解析の結果から、断面種別ごとに、統計モデルである部分空間情報(部分空間を構成する平均ベクトル(aバー)とL個の固有ベクトル(e~e))を生成して、RAM33に格納する。以上で、統計モデルの学習処理は終了である。 In step S406, the statistical model acquisition unit 52 generates subspace information (the mean vector (a bar) and L eigenvectors (e 1 to e L ) constituting the subspace) which is a statistical model for each cross-section type from the results of the statistical analysis, and stores the information in the RAM 33. This completes the learning process of the statistical model.

なお、統計モデル取得部52によるステップS401~S406の機能が本発明の「学習装置」の一例である。また、ステップS401の機能、ステップS404~S406の機能がそれぞれ、本発明の「学習データ準備部」、「モデル生成部」の一例である。 The functions of steps S401 to S406 performed by the statistical model acquisition unit 52 are an example of the "learning device" of the present invention. The function of step S401 and the functions of steps S404 to S406 are examples of the "learning data preparation unit" and "model generation unit" of the present invention, respectively.

なお、ステップS401~S406における統計モデルの生成処理(学習処理)は、後述する入力画像の断面種別の識別処理とは独立したデータ処理である。そのため、統計モデルの生成処理を事前に実施し、生成された統計モデルをあらかじめデータベース22又は記憶部34に保存しておいてもよい。この場合、図3のステップS101では、統計モデル取得部52は、統計モデルをデータベース22又は記憶部34から読み込んでRAM
33に格納すればよい。あらかじめ統計モデルを算出しておくことで、入力画像における断面種別の識別処理を行う際の処理時間を短縮できる効果がある。なお、統計モデルの生成処理は、画像処理装置10の統計モデル取得部52により行ってもよいし、画像処理装置10とは異なる他の学習装置で行ってもよい。他の学習装置で統計モデルを生成する場合の処理も、図4に示したものと同様である。
The statistical model generation process (learning process) in steps S401 to S406 is data processing independent of the input image cross-section type identification process described below. Therefore, the statistical model generation process may be performed in advance, and the generated statistical model may be stored in the database 22 or the storage unit 34 in advance. In this case, in step S101 in FIG. 3, the statistical model acquisition unit 52 reads the statistical model from the database 22 or the storage unit 34 and stores it in the RAM.
33. By calculating the statistical model in advance, it is possible to reduce the processing time required for identifying the cross-section type in the input image. The statistical model generation process may be performed by the statistical model acquisition unit 52 of the image processing device 10, or may be performed by another learning device different from the image processing device 10. The process of generating a statistical model by another learning device is also similar to that shown in FIG.

なお、空間的正規化処理(ステップS402)とクロップ処理(ステップS403)の間に、学習データ内の画像の水増し処理を行ってもよい。すなわち、学習データ内の各画像を例えば各軸方向に±10ピクセルずつ平行移動させ、そのように変位させた画像も学習データとして用いても良い。水増しは、平行移動だけでなく回転によって行ってもよい。また、両者を組み合わせてもよい。また、ステップS405で統計解析を行う際は、オリジナルの画像と水増しした画像をまとめて統計解析してもよいし、変位量(平行移動・回転量)が同一である画像ごとにグループ分けして、それぞれ統計解析を行ってもよい。変位量が同一である画像ごとにグループ分けして統計解析する場合、断面種別の数×変位量の組み合わせ数の統計モデルが生成されることになる。このようにすることで、入力画像の位置や角度のバリエーションに対する統計モデルの頑健性を向上させることができる。また、本実施形態では画素値情報として画素値そのものを利用したが、他の画像特徴(例えば、画像のテクスチャに関する特徴など)を画素値情報として利用してもよい。 Note that between the spatial normalization process (step S402) and the crop process (step S403), the images in the learning data may be amplified. That is, each image in the learning data may be translated by ±10 pixels in each axis direction, and the displaced image may also be used as learning data. The augmentation may be performed by rotation as well as translation. In addition, both may be combined. In addition, when performing statistical analysis in step S405, the original image and the augmented image may be statistically analyzed together, or images with the same amount of displacement (translation and rotation) may be grouped and statistically analyzed separately. When performing statistical analysis by grouping images with the same amount of displacement, a statistical model of the number of cross-section types x the number of combinations of the amount of displacement is generated. In this way, the robustness of the statistical model against variations in the position and angle of the input image can be improved. In addition, in this embodiment, the pixel value itself is used as pixel value information, but other image features (for example, features related to the texture of the image) may be used as pixel value information.

(ステップS102:入力画像の取得)
ステップS102において、ユーザが操作部35を介して画像の取得を指示すると、画像取得部51は、ユーザが指定した入力画像をデータベース22から取得し、RAM33に格納する。このとき、表示処理部54は、入力画像を表示部36の画像表示領域内に表示させてもよい。
(Step S102: Acquiring input image)
In step S102, when the user issues an instruction to acquire an image via the operation unit 35, the image acquisition unit 51 acquires the input image designated by the user from the database 22 and stores it in the RAM 33. At this time, the display processing unit 54 may display the input image in the image display area of the display unit 36.

(ステップS103:断面種別の識別)
ステップS103において、推定部53は、ステップS101で取得した複数の統計モデルそれぞれの入力画像への当てはまりを評価することによって、入力画像の断面種別を識別する。本実施形態では、統計モデルとして、断面種別ごとの部分空間情報が用いられる。すなわち、識別すべき断面種別の数が4種類の場合、4つの部分空間情報が取得される。この場合、推定部53は、断面種別ごとに入力画像の特徴が部分空間に属する可能性を表すスコアを算出し、断面種別ごとのスコアに基づいて入力画像の断面種別を識別するとよい。スコアの算出方法は問わないが、例えば、入力画像の特徴を部分空間へ投影したのち元の画像空間に逆投影することで得られる再構築画像を断面種別ごとに生成し、各再構築画像と入力画像の類似度に基づいて断面種別ごとのスコアを算出するとよい。再構築画像と入力画像の類似度が高いほど、すなわち、再構築画像と入力画像の差異が小さいほど、入力画像がその部分空間に属する可能性が高いと評価することができる。したがって、断面種別ごとのスコアを比較することにより、入力画像が属する部分空間、すなわち、入力画像の断面種別を推定することができる。なお、スコアは、再構築画像と入力画像の類似度と正の相関をもつスコアでもよいし、負の相関をもつスコアでもよい。例えば、再構築画像と入力画像のあいだの差異(再構築誤差と呼ぶ)は、類似度と負の相関をもつスコアの一例である。
(Step S103: Identification of cross section type)
In step S103, the estimation unit 53 identifies the cross-section type of the input image by evaluating the fit of each of the multiple statistical models acquired in step S101 to the input image. In this embodiment, partial space information for each cross-section type is used as the statistical model. That is, when the number of cross-section types to be identified is four, four pieces of partial space information are acquired. In this case, the estimation unit 53 may calculate a score representing the possibility that the features of the input image belong to the partial space for each cross-section type, and identify the cross-section type of the input image based on the score for each cross-section type. Although the method of calculating the score does not matter, for example, a reconstructed image obtained by projecting the features of the input image onto the partial space and then back-projecting it into the original image space may be generated for each cross-section type, and a score for each cross-section type may be calculated based on the similarity between each reconstructed image and the input image. The higher the similarity between the reconstructed image and the input image, that is, the smaller the difference between the reconstructed image and the input image, the more likely it is that the input image belongs to that partial space. Therefore, by comparing the scores for each cross-section type, the partial space to which the input image belongs, that is, the cross-section type of the input image, may be estimated. Note that the score may be positively or negatively correlated with the similarity between the reconstructed image and the input image, for example, the difference between the reconstructed image and the input image (called the reconstruction error) is an example of a score that is negatively correlated with the similarity.

図6に、推定部53によって実行される、断面種別の識別処理の具体例を示す。 Figure 6 shows a specific example of the cross-section type identification process executed by the estimation unit 53.

ステップS601において、推定部53は、画像取得部51から入力画像の画素値情報を取得する。また、推定部53は、入力画像の空間的正規化に用いる情報として、プローブ位置情報、有効画像表示サイズ情報を取得する。これらの情報は、例えば、超音波診断装置が入力画像を撮像する際に用いた撮像パラメータを入力画像に付帯情報として保持させておき、既知の情報として入力画像と共に読み込むことで取得できる。あるいは、入力
画像が当該情報を保持していない場合には、入力画像から被検体領域を画像処理で抽出することで取得してもよい。
In step S601, the estimation unit 53 acquires pixel value information of the input image from the image acquisition unit 51. The estimation unit 53 also acquires probe position information and effective image display size information as information used for spatial normalization of the input image. For example, these pieces of information can be acquired by storing imaging parameters used when the ultrasound diagnostic device captures the input image as auxiliary information in the input image and reading them together with the input image as known information. Alternatively, if the input image does not store the information, the information may be acquired by extracting the subject region from the input image by image processing.

ステップS602において、推定部53は、入力画像に対し、ステップS402、S403と同様の空間的正規化処理とクロップ処理を施すことで、入力画像のx方向とy方向のピクセル数を学習データと同じNx・Nyに揃える。そして、推定部53は、入力画像の計算対象範囲内の画素群の画素値情報を、式(1)に従い、列ベクトルaに変換する。 In step S602, the estimation unit 53 performs spatial normalization and cropping on the input image similar to steps S402 and S403 to align the number of pixels in the x and y directions of the input image to Nx and Ny, the same as the learning data. Then, the estimation unit 53 converts pixel value information of a pixel group within the calculation target range of the input image into a column vector a t according to formula (1).

なお、入力画像に対する空間的正規化処理は、ステップS402において学習データに対して施した空間的正規化処理と同じ処理であることが望ましい。学習データと入力画像のスケールが揃っている方がより高い識別精度を期待できるからである。しかしながら、空間的正規化処理は必須ではなく、省略してもよい。また、有効画像表示サイズを基準とした正規化ではなく、画像サイズ(画像全体のx方向およびy方向のピクセル数)を基準とした正規化や、1ピクセル当たりの物理サイズを基準とした正規化を行ってもよい。なお、統計モデルである部分空間情報を算出するときは学習データに対し空間的正規化を行うが、入力画像に対しては空間的正規化を行わない、という構成にすることも可能である。この方法は、学習時はオフラインのマニュアル作業によって有効画像表示サイズを既知の情報として取得できるが、識別時は有効画像表示サイズが不明という場合に対応できる。あるいは、入力画像の有効画像表示サイズに合わせて学習データの空間的正規化を行うことで、入力画像の空間的正規化を省略してもよい。この方法は、入力画像の有効画像表示サイズが既知かつ固定の場合に特に有効である。 It is preferable that the spatial normalization process for the input image is the same as the spatial normalization process performed for the learning data in step S402. This is because higher classification accuracy can be expected if the scales of the learning data and the input image are the same. However, the spatial normalization process is not essential and may be omitted. Also, normalization based on the image size (the number of pixels in the x and y directions of the entire image) or the physical size per pixel may be performed instead of normalization based on the effective image display size. It is also possible to configure the system so that spatial normalization is performed on the learning data when calculating the partial space information, which is a statistical model, but spatial normalization is not performed on the input image. This method can be used in cases where the effective image display size can be obtained as known information by offline manual work during learning, but the effective image display size is unknown during classification. Alternatively, spatial normalization of the input image may be omitted by performing spatial normalization of the learning data in accordance with the effective image display size of the input image. This method is particularly effective when the effective image display size of the input image is known and fixed.

ステップS603において、推定部53は、入力画像を夫々の部分空間で再構築する。いま、夫々の部分空間について、すべての固有ベクトルe~eを並べた行列Eを以下の式で定義する。

Figure 0007516072000004
In step S603, the estimation unit 53 reconstructs the input image in each subspace. Now, for each subspace, a matrix E in which all eigenvectors e 1 to e L are arranged is defined by the following equation.
Figure 0007516072000004

推定部53は、以下の式を用いて入力画像aの固有空間への投影点pを計算する。

Figure 0007516072000005

ここでEはEの転置行列を表す。次に、以下の式を用いて、固有空間への投影点pを今度は逆投影する。 The estimation unit 53 calculates a projection point p t of the input image a t onto the eigenspace using the following equation.
Figure 0007516072000005

Here, E T represents the transpose matrix of E. Next, the projection point p t onto the eigenspace is back-projected using the following equation.

Figure 0007516072000006

左辺(aハット)は、行列Eで表現される部分空間の表現力の範囲内で入力画像aを表現した、再構築画像である。推定部53は、この再構築画像を、断面種別ごとのEを用いてそれぞれ算出する。
Figure 0007516072000006

The left side (a hat t ) is a reconstructed image that expresses the input image a t within the range of the expressive power of the subspace expressed by the matrix E. The estimation unit 53 calculates this reconstructed image using E for each cross-section type.

ステップS604において、推定部53は、入力画像と、断面種別ごとに算出された再構築画像との差異(すなわち、再構築誤差)を表すスコアを算出し、断面種別ごとのスコアを比較することで断面種別を識別する。本実施形態では、公知の画像類似度評価指標であるSSD(Squared Sum Difference)を、入力画像の特徴を表
す列ベクトルaと、各再構築画像を表す列ベクトルaハットの差異を示すスコアとして用いる。そして、スコアが最も小さい再構築画像をもたらす部分空間と対応付いた断面種別を識別結果とする。なお、再構築誤差の算出には、上記したSSD以外にも、どのような画像類似評価尺度を用いてもよい。
In step S604, the estimation unit 53 calculates a score representing the difference (i.e., reconstruction error) between the input image and the reconstructed image calculated for each cross-section type, and identifies the cross-section type by comparing the scores for each cross-section type. In this embodiment, a known image similarity evaluation index, SSD (Square Sum Difference), is used as a score representing the difference between a column vector a t representing the characteristics of the input image and a column vector a t representing each reconstructed image. Then, the cross-section type associated with the subspace that brings about the reconstructed image with the smallest score is determined as the identification result. Note that, in addition to the above-mentioned SSD, any image similarity evaluation measure may be used to calculate the reconstruction error.

なお、部分空間夫々に対して入力画像のスコアを算出するものであれば、上記以外の手法を用いてもよい。例えば、式(4)の投影処理のみを行い、最も平均ベクトルに近い、すなわち投影点pのノルムが小さいものを識別結果としてもよい。あるいは、カーネル非線型部分空間法、相互部分空間法といった種々の公知の部分空間法を用いてもよい。 It should be noted that any method other than the above may be used as long as it calculates the score of the input image for each subspace. For example, only the projection process of formula (4) may be performed, and the projection point p t closest to the mean vector, i.e., the projection point p t with the smallest norm, may be used as the classification result. Alternatively, various known subspace methods such as the kernel nonlinear subspace method and the mutual subspace method may be used.

なお、推定部53は、夫々の断面種別について算出されたスコアが所定の条件を満たす場合に、「入力画像はいずれの断面種別にも該当しない」という判定を行ってもよい。所定の条件は、例えば、所定の閾値より小さいスコアが存在しない(すなわち、どの断面種別についても再構築誤差が大きい)、断面種別間のスコアの差が所定値より小さい(すなわち、どちらの断面種別であるか明確に識別できない)、などが考えられる。これにより、例えば心臓領域以外を撮像した(あるいは、識別対象でない断面種別の)2次元超音波画像が入力された場合に、誤った識別結果が表示されてユーザに混乱を生じさせる可能性を低減させることができる。 The estimation unit 53 may determine that "the input image does not correspond to any of the cross-section types" when the scores calculated for each cross-section type satisfy a predetermined condition. The predetermined condition may be, for example, that there is no score smaller than a predetermined threshold (i.e., the reconstruction error is large for all cross-section types), that the difference in scores between cross-section types is smaller than a predetermined value (i.e., it is not possible to clearly identify which cross-section type it is), etc. This reduces the possibility that an incorrect identification result will be displayed and cause confusion to the user when, for example, a two-dimensional ultrasound image of an area other than the cardiac region (or of a cross-section type not to be identified) is input.

ステップS605において、推定部53は、ステップS604の識別結果をRAM33に格納する。また、推定部53は、データベース22に識別結果を出力し、データベース22が保持する入力画像の付帯情報として保存させるようにしてもよい。なお、1つの断面種別を特定することは行わずに、夫々の部分空間に対して算出されたスコアを識別結果としてRAM33に格納する構成でもよい。なお、前記スコアは、再構築誤差の値そのものでもよいし、例えば0.0~1.0の範囲内に収まるように正規化した値でもよい。 In step S605, the estimation unit 53 stores the classification result of step S604 in the RAM 33. The estimation unit 53 may also output the classification result to the database 22 and store it as additional information of the input image held by the database 22. Note that, instead of identifying one cross-section type, the score calculated for each subspace may be stored in the RAM 33 as the classification result. Note that the score may be the reconstruction error value itself, or may be a value normalized to fall within the range of 0.0 to 1.0, for example.

(ステップS104:識別結果の表示)
ステップS104において、表示処理部54は、入力画像とその種別識別結果を、それらが容易に視認できるような表示形態で、表示部36の画像表示領域内に表示する。なお、断面種別の記録を目的とする場合には、本ステップの表示処理は必ずしも必要ではなく、識別した断面種別情報をデータベース22又は記憶部34に保存するだけの構成であってもよい。
(Step S104: Display of the identification result)
In step S104, the display processing unit 54 displays the input image and its type identification result in the image display area of the display unit 36 in a display form that allows them to be easily viewed. Note that, if the purpose is to record the cross-section type, the display processing of this step is not necessarily required, and the identified cross-section type information may be simply stored in the database 22 or the storage unit 34.

なお、表示処理部54は、断面種別だけでなく、ステップS103で算出されたスコアを表示してもよい。その場合、ユーザは、断面種別間のスコアの差を観察することで、どの程度識別結果が確からしいか、という判断をする材料を得ることができる。また、スコアだけを表示し、ユーザに断面種別を判断させる構成であってもよい。 The display processing unit 54 may display not only the cross-section types but also the scores calculated in step S103. In this case, the user can obtain information to determine how likely the identification result is by observing the difference in scores between the cross-section types. Alternatively, the display processing unit 54 may be configured to display only the scores and allow the user to determine the cross-section type.

なお、断面種別に応じた入力画像の解析や計測を目的とする場合には、本ステップのあと、画像処理装置10は、断面種別に応じた処理を実行する。例えば、入力画像の断面種別を心尖部四腔像と判定した場合に左心室・左心房・右心室・右心房の抽出処理を行い、心尖部二腔像と判定した場合に左心室と左心房の抽出処理を行うような分岐処理を行う。この場合、断面種別の保存や表示は必ずしも行わなくてよい。 If the purpose is to analyze or measure the input image according to the type of cross section, after this step, the image processing device 10 executes processing according to the type of cross section. For example, if the type of cross section of the input image is determined to be an apical four-chamber view, it performs branching processing such as extracting the left ventricle, left atrium, right ventricle, and right atrium, and if it is determined to be an apical two-chamber view, it performs branching processing such as extracting the left ventricle and left atrium. In this case, it is not necessary to save or display the type of cross section.

なお、本実施形態では4種類(心尖部二腔像・心尖部三腔像・心尖部四腔像・空中放置像)の断面種別の識別を行う場合を例に挙げて説明したが、識別する断面種別の数が異なる場合であっても同様に処理を行うことができる。例えば、心尖部四腔像・心尖部二腔像の2種類を識別してもよいし、短軸像や傍胸骨長軸像を加えた5種類以上の識別を行ってもよい。すなわち、断面種別は、心尖部二腔像、心尖部三腔像、心尖部四腔像、短軸像、傍胸骨長軸像、および、空中放置像のうちの、少なくとも2種類以上を含んでいればよい
In this embodiment, four types of cross-section types (apical two-chamber view, apical three-chamber view, apical four-chamber view, and air-left view) are identified, but the same processing can be performed even if the number of cross-section types to be identified is different. For example, two types of views, apical four-chamber view and apical two-chamber view, may be identified, or five or more types may be identified by adding short-axis view and parasternal long-axis view. In other words, the cross-section types may include at least two or more of the apical two-chamber view, apical three-chamber view, apical four-chamber view, short-axis view, parasternal long-axis view, and air-left view.

なお、画像取得部51が取得する入力画像が動画像の各フレームの場合に、当該動画像の各フレームに対して、ステップS102、S103、S104の処理を逐次実施する構成であってもよい。 When the input images acquired by the image acquisition unit 51 are frames of a moving image, the processing of steps S102, S103, and S104 may be performed sequentially for each frame of the moving image.

また、本実施形態では、入力画像と統計解析に用いる画像がともに2次元超音波画像である場合、すなわちモダリティが一致している場合を例に挙げて説明したが、両者のモダリティは異なっていてもよい。例えば、統計解析に用いる画像は3次元CT画像から切り出された2次元断面画像で入力画像は2次元超音波画像であってもよい。この場合、統計モデルで表現される画像と入力画像とでは、画素値分布や大小関係が異なる可能性がある。そのため、ステップS103では、正規化相関係数(NCC:Normalized Correlation Coefficient)や相互情報量(MI:Mutual
Information)といった、画素値分布の違いに不偏な類似度評価尺度を用いて再構築誤差を算出することが望ましい。
In addition, in this embodiment, the input image and the image used in the statistical analysis are both two-dimensional ultrasound images, i.e., the modalities are the same, but the modalities of the two may be different. For example, the image used in the statistical analysis may be a two-dimensional cross-sectional image cut out from a three-dimensional CT image, and the input image may be a two-dimensional ultrasound image. In this case, the image expressed by the statistical model and the input image may have different pixel value distributions and magnitude relationships. Therefore, in step S103, the normalized correlation coefficient (NCC) and mutual information (MI) are used to calculate the correlation coefficients.
It is desirable to calculate the reconstruction error using a similarity evaluation measure that is unbiased to differences in pixel value distribution, such as the Fourier transform (FFT) or the Fourier transform (FFT).

本実施形態によれば、学習データから抽出された統計的傾向に基づいて、画像の断面種別の識別をより高い精度で実行できるという効果がある。また、断面種別識別に必要な統計モデル(部分空間情報)のデータサイズを削減し、推定処理に要する時間を短縮することができるという効果がある。 According to this embodiment, it is possible to more accurately identify the cross-section type of an image based on the statistical trends extracted from the learning data. It is also possible to reduce the data size of the statistical model (subspace information) required for cross-section type identification, thereby shortening the time required for estimation processing.

<変形例>
上記実施形態では、推定処理の例として断面種別の識別を説明した。しかし、画像の部分空間情報を用いるものであれば、断面種別の識別に限らず、入力画像の任意の付帯情報の識別・推定処理に対して、統計処理を行う計算対象範囲の限定方法を適用可能である。例えば、心臓領域を撮像した2次元超音波画像から左心室・左心房・右心室・右心房といった各領域の輪郭線を推定する輪郭抽出処理に適用することが可能である。
<Modification>
In the above embodiment, the identification of the cross-section type has been described as an example of the estimation process. However, as long as the partial space information of the image is used, the method of limiting the calculation target range for performing statistical processing can be applied to the identification/estimation process of any additional information of the input image, not limited to the identification of the cross-section type. For example, the method can be applied to a contour extraction process for estimating the contours of each region, such as the left ventricle, left atrium, right ventricle, and right atrium, from a two-dimensional ultrasound image of the cardiac region.

上述した計算対象範囲の限定方法を輪郭抽出処理に適用する場合、非特許文献1で開示されているBack projection for lost pixels(BPLP)法などの公知の手法を用いてもよい。BPLP法は、複数の画像の画素値の情報と、該画像に写る物体の姿勢を表す情報を連結したデータに関する部分空間情報とを利用して、未知の画像の画素値の情報から該画像に写る物体の姿勢を表す情報を推定する手法である。換言すると、BPLP法は、ある欠損が生じているデータについて、欠損のない学習データを統計解析した結果から、該欠損部分のデータを補間する手法である。 When applying the above-mentioned method for limiting the calculation range to a contour extraction process, a known method such as the back projection for lost pixels (BPLP) method disclosed in Non-Patent Document 1 may be used. The BPLP method is a method for estimating information representing the posture of an object appearing in an image from information on the pixel values of an unknown image, using subspace information related to data that combines information on the pixel values of multiple images and information representing the posture of an object appearing in the images. In other words, the BPLP method is a method for interpolating data in which a certain missing part occurs, based on the results of statistical analysis of training data without the missing part.

[非特許文献1] Toshiyuki Amano,et.al.“An appearance based fast linear pose estimation” MVA 2009 IAPR Conference on Machine Vision Applications.2009 May 20-22. [Non-patent Document 1] Toshiyuki Amano, et. al. “An appearance based fast linear pose estimation” MVA 2009 IAPR Conference on Machine Vision Applications. 2009 May 20-22.

この場合、学習時(部分空間情報の算出時)は、画素値情報と、推定対象とする付帯情報(ここでは輪郭点群座標)を連結させた列ベクトルを用いて統計解析(主成分分析)を行う。そして、推定時は、未知の部分(輪郭点群座標)を欠落させて、固有空間法による投影・逆投影を行う。このようにすることで、部分空間情報が有する統計的情報に基づいて、投影・逆投影によって欠落部分が復元される。 In this case, during learning (calculation of subspace information), statistical analysis (principal component analysis) is performed using column vectors that link pixel value information with the auxiliary information to be estimated (contour point cloud coordinates in this case). Then, during estimation, unknown parts (contour point cloud coordinates) are omitted and projection and backprojection are performed using the eigenspace method. In this way, the missing parts are restored by projection and backprojection based on the statistical information contained in the subspace information.

BPLP法を用いる場合、統計解析に入力される学習データは、画素値情報を1列に並べた列ベクトルと、対象領域の輪郭を構成する輪郭点群の座標値を1列に並べた列ベクトル、それら2つを連結した列ベクトルである。上記のうち、画素値情報を1列に並べた列
ベクトル部分については、上記実施形態で断面種別の識別のために用いた画素値情報(すなわち、列ベクトルa)と同じでよい。そのため、上記実施形態のステップS100およびS101で示した計算対象範囲によるサイズ削減を、そのまま利用可能である。また、推定処理(入力画像の投影・逆投影処理)についても同様に、入力画像を列ベクトルaに変換する際に、計算対象範囲内の画素値情報のみを用いることでサイズを削減することが可能である。
When using the BPLP method, the learning data input to the statistical analysis is a column vector in which pixel value information is arranged in a row, a column vector in which the coordinate values of the contour point group constituting the contour of the target area are arranged in a row, and a column vector in which these two are connected. Of the above, the column vector part in which pixel value information is arranged in a row may be the same as the pixel value information (i.e., column vector a) used to identify the cross-section type in the above embodiment. Therefore, the size reduction by the calculation target range shown in steps S100 and S101 of the above embodiment can be used as it is. Similarly, in the estimation process (projection and backprojection process of the input image), when converting the input image to the column vector a t , it is possible to reduce the size by using only the pixel value information within the calculation target range.

このように、上記実施形態で示した計算対象範囲の限定方法は、断面種別の識別に限らず、輪郭情報の推定など、任意の推定処理に適用可能である。なかでも、医用画像とその付帯情報からなる学習データを統計解析することにより算出された統計モデルである部分空間情報を用いて、入力画像からその付帯情報を推定・識別する処理に対して、特に好ましく適用することができる。 In this way, the method of limiting the calculation range shown in the above embodiment can be applied not only to identifying cross-section types, but also to any estimation process, such as estimating contour information. In particular, it can be preferably applied to a process of estimating and identifying additional information from an input image using subspace information, which is a statistical model calculated by statistically analyzing learning data consisting of medical images and their additional information.

<その他>
以上、本発明の実施形態について説明したが、本発明はこれらに限定されるものではなく、請求項に記載された範囲内において、変更・変形することが可能である。
<Other>
Although the embodiments of the present invention have been described above, the present invention is not limited to these, and can be modified and changed within the scope of the claims.

また、開示の技術は例えば、システム、装置、方法、プログラム若しくは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インターフェイス機器、撮像装置、webアプリケーション等)から構成されるシステムに適用してもよいし、また、1つの機器からなる装置に適用してもよい。 The disclosed technology can be embodied, for example, as a system, device, method, program, or recording medium (storage medium). Specifically, it may be applied to a system consisting of multiple devices (for example, a host computer, an interface device, an imaging device, a web application, etc.), or it may be applied to an apparatus consisting of a single device.

また、本発明の目的は、以下のようにすることによって達成されることはいうまでもない。すなわち、前述した実施形態の機能を実現するソフトウェアのプログラムコード(コンピュータプログラム)を記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。 Needless to say, the object of the present invention can be achieved by the following: A recording medium (or storage medium) on which is recorded software program code (computer program) that realizes the functions of the above-mentioned embodiments is supplied to a system or device. The storage medium is, of course, a computer-readable storage medium. Then, the computer (or CPU or MPU) of the system or device reads and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium realizes the functions of the above-mentioned embodiments, and the recording medium on which the program code is recorded constitutes the present invention.

10 画像処理装置
37 制御部
51 画像取得部
52 統計モデル取得部
53 推定部
10 Image processing device 37 Control unit 51 Image acquisition unit 52 Statistical model acquisition unit 53 Estimation unit

Claims (26)

モダリティにより得られスキャン領域に対応する被検体領域とそれ以外の領域とを含む断面における複数の被検体画像を含む学習データを前記複数の被検体画像のそれぞれにおける同じ対象範囲の画素群の情報を用いて統計解析することによって生成された統計モデルを取得するモデル取得部と、
断面画像であって処理対象となる入力画像を取得する画像取得部と、
前記統計モデルを用いて前記入力画像を用いた診断に利用される識別情報を推定する推定処理を行う推定部と、
を備える画像処理装置であって、
前記モデル取得部は、前記被検体画像の一部の範囲であり、かつ、前記複数の被検体画像のいずれにおいても前記被検体領域の少なくとも一部を含むように前記対象範囲を設定し、
前記推定部は、前記推定処理において、前記対象範囲内の画素群を構成する各画素の通し番号と座標値とを対応付けた対応表を用いることにより、前記入力画像のうち前記対象範囲内の画素群を限定的に参照する
ことを特徴とする画像処理装置。
a model acquisition unit that acquires a statistical model generated by statistically analyzing learning data including a plurality of subject images in cross sections including a subject region corresponding to a scan region and other regions obtained by a modality , using information on a pixel group of the same target range in each of the plurality of subject images ;
an image acquisition unit that acquires an input image to be processed, the input image being a cross-sectional image;
an estimation unit that performs an estimation process to estimate identification information used for diagnosis using the input image by using the statistical model;
An image processing device comprising:
the model acquisition unit sets the target range to be a partial range of the object image and to include at least a part of the object region in each of the plurality of object images ;
In the estimation process, the estimation unit refers to the pixel group within the target range in the input image in a limited manner by using a correspondence table in which serial numbers of each pixel constituting the pixel group within the target range correspond to coordinate values.
13. An image processing device comprising:
モダリティにより得られスキャン領域に対応する被検体領域とそれ以外の領域とを含む断面における複数の被検体画像を含む学習データを前記複数の被検体画像のそれぞれにおける同じ対象範囲の画素群の情報を用いて統計解析することによって生成された統計モデルを取得するモデル取得部と、
断面画像であって処理対象となる入力画像を取得する画像取得部と、
前記統計モデルを用いて前記入力画像を用いた診断に利用される識別情報を前記入力画像の前記対象範囲内の画素群の特徴を部分空間へ投影したのち元の画像空間に逆投影することにより再構築画像を生成する処理を含むことにより推定する推定処理を行う推定部と、
を備える画像処理装置であって、
前記モデル取得部は、前記被検体画像の一部の範囲であり、かつ、前記複数の被検体画
像のいずれにおいても前記被検体領域の少なくとも一部を含むように前記対象範囲を設定する
ことを特徴とする画像処理装置。
a model acquisition unit that acquires a statistical model generated by statistically analyzing learning data including a plurality of subject images in cross sections including a subject region corresponding to a scan region and other regions obtained by a modality , using information on a pixel group of the same target range in each of the plurality of subject images ;
an image acquisition unit that acquires an input image to be processed, the input image being a cross-sectional image;
an estimation unit that performs an estimation process to estimate identification information used for diagnosis using the input image by using the statistical model, the process including a process of projecting features of a pixel group within the target range of the input image onto a subspace and then back-projecting the features onto the original image space to generate a reconstructed image;
An image processing device comprising:
The model acquisition unit sets the target range to be a partial range of the object image and to include at least a part of the object region in each of the plurality of object images.
13. An image processing device comprising:
モダリティにより得られスキャン領域に対応する被検体領域とそれ以外の領域とを含む断面における心臓の2次元超音波画像であって複数の被検体画像を含む学習データを前記複数の被検体画像のそれぞれにおける同じ対象範囲の画素群の情報を用いて統計解析することによって生成された統計モデルを取得するモデル取得部と、
断面画像であって処理対象となる入力画像を取得する画像取得部と、
前記統計モデルを用いて前記入力画像中の心尖部二腔像、心尖部三腔像、心尖部四腔像、短軸像、傍胸骨長軸像、および、プローブが被検体に接していない状態に取得される空中放置像のうちの少なくとも2以上の断面種別を推定する推定処理を行う推定部と、
を備える画像処理装置であって、
前記モデル取得部は、前記被検体画像の一部の範囲であり、かつ、前記複数の被検体画像のいずれにおいても前記被検体領域の少なくとも一部を含むように前記対象範囲を設定し、
前記推定部は、前記推定処理において、前記対象範囲内の画素群を構成する各画素の通し番号と座標値とを対応付けた対応表を用いることにより、前記入力画像のうち前記対象範囲内の画素群を限定的に参照する
ことを特徴とする画像処理装置。
a model acquisition unit that acquires a statistical model generated by statistically analyzing learning data including a plurality of subject images, the learning data being two-dimensional ultrasound images of the heart in a cross section including a subject region corresponding to a scan region and other regions obtained by a modality , using information on a pixel group of the same target range in each of the plurality of subject images;
an image acquisition unit that acquires an input image to be processed, the input image being a cross-sectional image;
an estimation unit that performs an estimation process to estimate at least two or more cross-section types from among an apical two-chamber view, an apical three-chamber view, an apical four-chamber view, a short-axis view, a parasternal long-axis view, and an air-left image acquired in a state where the probe is not in contact with the subject, in the input image, using the statistical model;
An image processing device comprising:
the model acquisition unit sets the target range to be a partial range of the object image and to include at least a part of the object region in each of the plurality of object images ;
In the estimation process, the estimation unit refers to the pixel group within the target range in the input image in a limited manner by using a correspondence table in which serial numbers of each pixel constituting the pixel group within the target range correspond to coordinate values.
13. An image processing device comprising:
モダリティにより得られスキャン領域に対応する被検体領域とそれ以外の領域とを含む断面における心臓の2次元超音波画像であって複数の被検体画像を含む学習データを前記複数の被検体画像のそれぞれにおける同じ対象範囲の画素群の情報を用いて統計解析することによって生成された統計モデルを取得するモデル取得部と、
断面画像であって処理対象となる入力画像を取得する画像取得部と、
前記統計モデルを用いて前記入力画像中の左心室、左心房、右心室、右心房のうちの、少なくとも1領域以上を含む所定の領域の輪郭情報を推定する推定処理を行う推定部と、を備える画像処理装置であって、
前記モデル取得部は、前記被検体画像の一部の範囲であり、かつ、前記複数の被検体画像のいずれにおいても前記被検体領域の少なくとも一部を含むように前記対象範囲を設定し、
前記推定部は、前記推定処理において、前記対象範囲内の画素群を構成する各画素の通し番号と座標値とを対応付けた対応表を用いることにより、前記入力画像のうち前記対象範囲内の画素群を限定的に参照する
ことを特徴とする画像処理装置。
a model acquisition unit that acquires a statistical model generated by statistically analyzing learning data including a plurality of subject images, the learning data being two-dimensional ultrasound images of the heart in a cross section including a subject region corresponding to a scan region and other regions obtained by a modality , using information on a pixel group of the same target range in each of the plurality of subject images;
an image acquisition unit that acquires an input image to be processed, the input image being a cross-sectional image;
an estimation unit that performs an estimation process to estimate contour information of a predetermined region including at least one of a left ventricle, a left atrium, a right ventricle, and a right atrium in the input image by using the statistical model,
the model acquisition unit sets the target range to be a partial range of the object image and to include at least a part of the object region in each of the plurality of object images ;
In the estimation process, the estimation unit refers to the pixel group within the target range in the input image in a limited manner by using a correspondence table in which serial numbers of each pixel constituting the pixel group within the target range correspond to coordinate values.
13. An image processing device comprising:
前記複数の被検体画像は、前記被検体領域の形状が異なる被検体画像を含む
ことを特徴とする請求項1~のうちいずれか1項に記載の画像処理装置。
5. The image processing apparatus according to claim 1, wherein the plurality of subject images include subject images in which the shape of the subject region is different.
前記対象範囲は、矩形でない形状を有する
ことを特徴とする請求項1~4のうちいずれか1項に記載の画像処理装置。
5. The image processing device according to claim 1, wherein the target area has a shape that is not rectangular.
前記対象範囲は、前記被検体領域の外接矩形よりも小さい面積を有する
ことを特徴とする請求項に記載の画像処理装置。
The image processing apparatus according to claim 6 , wherein the target range has an area smaller than a circumscribing rectangle of the subject region.
前記対象範囲は、前記被検体領域と略相似形である
ことを特徴とする請求項又はに記載の画像処理装置。
8. The image processing apparatus according to claim 6 , wherein the target area has a shape substantially similar to that of the subject region.
前記被検体領域は、被検体の内部に対応する領域である
ことを特徴とする請求項1~のうちいずれか1項に記載の画像処理装置。
9. The image processing apparatus according to claim 1, wherein the object region is a region corresponding to an inside of the object.
前記被検体領域は、被検体内の所定の対象物に対応する領域である
ことを特徴とする請求項1~のうちいずれか1項に記載の画像処理装置。
10. The image processing apparatus according to claim 1, wherein the subject region is a region corresponding to a predetermined object within the subject.
前記被検体画像はモダリティにより得られた画像であり、前記被検体領域は前記モダリティによるスキャン領域に対応する領域である
ことを特徴とする請求項1~のうちいずれか1項に記載の画像処理装置。
9. The image processing apparatus according to claim 1, wherein the subject image is an image obtained by a modality, and the subject region is a region corresponding to a scan region by the modality.
前記統計モデルは、前記モダリティのスキャン領域、前記モダリティの撮像パラメータ、及び、前記モダリティのプローブの種類のうち少なくともいずれかを学習データとして利用して生成されたものである
ことを特徴とする請求項11に記載の画像処理装置。
The image processing device according to claim 11 , wherein the statistical model is generated by using at least one of a scan area of the modality, an imaging parameter of the modality, and a type of a probe of the modality as learning data .
前記統計解析は、主成分分析であり、
前記統計モデルは、前記複数の被検体画像の前記対象範囲内の画素群の特徴を表す部分空間の情報である
ことを特徴とする請求項1~12のうちいずれか1項に記載の画像処理装置。
The statistical analysis is a principal component analysis;
13. The image processing apparatus according to claim 1, wherein the statistical model is information of a subspace that represents characteristics of a pixel group within the target range of the plurality of object images.
前記推定処理は、前記入力画像の前記対象範囲内の画素群の特徴を部分空間へ投影したのち元の画像空間に逆投影することにより再構築画像を生成する処理を含む
ことを特徴とする請求項1、3、および、4のいずれか1項に記載の画像処理装置。
5. The image processing device according to claim 1, wherein the estimation process includes a process of generating a reconstructed image by projecting features of a group of pixels within the target range of the input image onto a subspace and then back-projecting them onto the original image space.
前記推定部は、前記推定処理において、前記対象範囲内の画素群を構成する各画素の通し番号と座標値とを対応付けた対応表を用いることにより、前記入力画像のうち前記対象範囲内の画素群を限定的に参照する
ことを特徴とする請求項に記載の画像処理装置。
The image processing device according to claim 2, characterized in that, in the estimation process, the estimation unit refers to the pixel group within the target range in the input image in a limited manner by using a correspondence table that associates serial numbers of each pixel that constitutes the pixel group within the target range with coordinate values.
前記被検体画像および前記入力画像は、断面画像であり、
前記推定部は、前記入力画像の断面種別を推定する推定処理を行う
ことを特徴とする請求項1~15のうちいずれか1項に記載の画像処理装置。
the subject image and the input image are cross-sectional images,
16. The image processing device according to claim 1, wherein the estimation unit performs an estimation process for estimating a cross-section type of the input image.
前記被検体画像および前記入力画像は、心臓の2次元超音波画像であり、
前記断面種別は、心尖部二腔像、心尖部三腔像、心尖部四腔像、短軸像、傍胸骨長軸像、および、プローブが被検体に接していない状態に取得される空中放置像のうちの、少なくとも2種類以上を含む
ことを特徴とする請求項16に記載の画像処理装置。
the subject image and the input image are two-dimensional ultrasound images of a heart,
17. The image processing device according to claim 16, wherein the cross-section types include at least two of an apical two-chamber view, an apical three-chamber view, an apical four-chamber view, a short axis view, a parasternal long axis view, and an air - left image acquired with the probe not in contact with the subject.
前記被検体画像および前記入力画像は、断面画像であり、
前記推定部は、前記入力画像中の所定の領域の輪郭情報を推定する推定処理を行う
ことを特徴とする請求項1~のうちいずれか1項に記載の画像処理装置。
the subject image and the input image are cross-sectional images,
4. The image processing device according to claim 1 , wherein the estimation unit performs an estimation process for estimating contour information of a predetermined area in the input image.
前記被検体画像および前記入力画像は、心臓の2次元超音波画像であり、
前記所定の領域は、左心室、左心房、右心室、右心房のうちの、少なくとも1領域以上を含む
ことを特徴とする請求項18に記載の画像処理装置。
the subject image and the input image are two-dimensional ultrasound images of a heart,
19. The image processing apparatus according to claim 18 , wherein the predetermined region includes at least one of the left ventricle, the left atrium, the right ventricle, and the right atrium.
前記複数の被検体画像は、スケールを揃えるための空間的正規化が施された画像であり、
前記推定部は、前記推定処理の前に、前記入力画像に対し前記空間的正規化を施す
ことを特徴とする請求項1~19のうちいずれか1項に記載の画像処理装置。
the plurality of object images are images that have been spatially normalized to align the scales;
20. The image processing device according to claim 1, wherein the estimation unit performs the spatial normalization on the input image before the estimation process.
前記被検体画像および前記入力画像は、2次元超音波画像であり、
前記空間的正規化は、2次元超音波画像の視野深度に対応する有効画像表示サイズが所定のピクセル数となるように画像を拡大又は縮小する処理を含む
ことを特徴とする請求項20に記載の画像処理装置。
the subject image and the input image are two-dimensional ultrasound images;
21. The image processing apparatus according to claim 20 , wherein the spatial normalization includes a process of enlarging or reducing an image so that an effective image display size corresponding to a field of view depth of a two-dimensional ultrasound image has a predetermined number of pixels.
前記対象範囲は、前記被検体画像における前記被検体領域に対応する画像領域であることを特徴とする請求項1~21のうちいずれか1項に記載の画像処理装置。 22. The image processing apparatus according to claim 1, wherein the target range is an image area corresponding to the subject area in the subject image. 前記複数の被検体画像間で、前記対象範囲に含まれる画素数が同一であることを特徴とする請求項22に記載の画像処理装置。 23. The image processing apparatus according to claim 22 , wherein the number of pixels included in the target range is the same among the plurality of subject images. モダリティにより得られスキャン領域に対応する被検体領域とそれ以外の領域とを含む断面における複数の被検体画像を含む学習データを前記複数の被検体画像のそれぞれにおける同じ対象範囲の画素群の情報を用いて統計解析することによって生成された統計モデルを取得するステップと、
断面画像であって処理対象となる入力画像を取得するステップと、
前記統計モデルを用いて前記入力画像を用いた診断に利用される識別情報を推定する推定処理を行うステップと、
を含む画像処理方法であって、
前記統計モデルを取得するステップは、前記被検体画像の一部の範囲であり、かつ、前記複数の被検体画像のいずれにおいても前記被検体領域の少なくとも一部を含むように前記対象範囲を設定し、
前記推定処理を行うステップは、前記推定処理において、前記対象範囲内の画素群を構成する各画素の通し番号と座標値とを対応付けた対応表を用いることにより、前記入力画像のうち前記対象範囲内の画素群を限定的に参照する
ことを特徴とする画像処理方法。
acquiring a statistical model generated by statistically analyzing learning data including a plurality of subject images of cross sections including a subject region corresponding to a scan region obtained by a modality and other regions, using information on a pixel group of the same target range in each of the plurality of subject images ;
obtaining an input image to be processed, the input image being a cross-sectional image ;
performing an estimation process for estimating discrimination information to be used for diagnosis using the input image by using the statistical model;
An image processing method comprising:
The step of acquiring the statistical model includes setting the target range to be a range of a part of the object image and to include at least a part of the object region in each of the plurality of object images;
The step of performing the estimation process includes, in the estimation process, referring to the pixel group within the target range in the input image in a limited manner by using a correspondence table in which serial numbers of each pixel constituting the pixel group within the target range correspond to coordinate values.
13. An image processing method comprising:
モダリティにより得られスキャン領域に対応する被検体領域とそれ以外の領域とを含む断面における複数の被検体画像を含む学習データを前記複数の被検体画像のそれぞれにおける同じ対象範囲の画素群の情報を用いて統計解析することによって生成された統計モデルを取得するステップと、
断面画像であって処理対象となる入力画像を取得するステップと、
前記統計モデルを用いて前記入力画像を用いた診断に利用される識別情報を前記入力画像の前記対象範囲内の画素群の特徴を部分空間へ投影したのち元の画像空間に逆投影することにより再構築画像を生成する処理を含むことにより推定する推定処理を行うステップと、を含む画像処理方法であって、
前記統計モデルを取得するステップは、前記被検体画像の一部の範囲であり、かつ、前記複数の被検体画像のいずれにおいても前記被検体領域の少なくとも一部を含むように前記対象範囲を設定する
ことを特徴とする画像処理方法。
acquiring a statistical model generated by statistically analyzing learning data including a plurality of subject images of cross sections including a subject region corresponding to a scan region obtained by a modality and other regions, using information on a pixel group of the same target range in each of the plurality of subject images ;
obtaining an input image to be processed, the input image being a cross-sectional image ;
and performing an estimation process for estimating discrimination information used for diagnosis using the input image by using the statistical model, the process including a process of generating a reconstructed image by projecting features of a pixel group within the target range of the input image onto a subspace and then back projecting the features onto an original image space, the image processing method including:
The step of acquiring the statistical model includes setting the target range to be a range of a part of the object image and to include at least a part of the object region in each of the plurality of object images.
13. An image processing method comprising:
請求項24または25に記載の画像処理方法の各ステップをコンピュータに実行させるためのプログラム。 26. A program for causing a computer to execute each step of the image processing method according to claim 24 or 25.
JP2020034996A 2020-03-02 2020-03-02 IMAGE PROCESSING APPARATUS, MEDICAL IMAGE DIAGNOSIS APPARATUS, IMAGE PROCESSING METHOD, PROGRAM, AND LEARNING APPARATUS Active JP7516072B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020034996A JP7516072B2 (en) 2020-03-02 2020-03-02 IMAGE PROCESSING APPARATUS, MEDICAL IMAGE DIAGNOSIS APPARATUS, IMAGE PROCESSING METHOD, PROGRAM, AND LEARNING APPARATUS

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020034996A JP7516072B2 (en) 2020-03-02 2020-03-02 IMAGE PROCESSING APPARATUS, MEDICAL IMAGE DIAGNOSIS APPARATUS, IMAGE PROCESSING METHOD, PROGRAM, AND LEARNING APPARATUS

Publications (2)

Publication Number Publication Date
JP2021137116A JP2021137116A (en) 2021-09-16
JP7516072B2 true JP7516072B2 (en) 2024-07-16

Family

ID=77666837

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020034996A Active JP7516072B2 (en) 2020-03-02 2020-03-02 IMAGE PROCESSING APPARATUS, MEDICAL IMAGE DIAGNOSIS APPARATUS, IMAGE PROCESSING METHOD, PROGRAM, AND LEARNING APPARATUS

Country Status (1)

Country Link
JP (1) JP7516072B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112023002830T5 (en) * 2022-06-29 2025-04-24 Fujifilm Corporation LEARNING DEVICE, TRAINED MODEL, MEDICAL DIAGNOSTIC DEVICE, ULTRASOUND ENDOSCOPE DEVICE, LEARNING METHOD AND PROGRAM
JP7551840B1 (en) 2023-05-29 2024-09-17 ジーイー・プレシジョン・ヘルスケア・エルエルシー Ultrasound diagnostic device and storage medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050147303A1 (en) 2003-11-19 2005-07-07 Xiang Sean Zhou System and method for detecting and matching anatomical stuctures using appearance and shape
US20080260226A1 (en) 2007-04-12 2008-10-23 Fujifilm Corporation Method, apparatus, and program for judging image recognition results, and computer readable medium having the program stored therein
WO2009148041A1 (en) 2008-06-03 2009-12-10 株式会社 日立メディコ Medical image processing device and method for processing medical image
US20100240996A1 (en) 2009-03-18 2010-09-23 Razvan Ioan Ionasec Valve assessment from medical diagnostic imaging data
WO2014155825A1 (en) 2013-03-29 2014-10-02 日立アロカメディカル株式会社 Medical diagnosis device and measurement method thereof
WO2017158897A1 (en) 2016-03-15 2017-09-21 株式会社日立製作所 Ultrasonic diagnostic device

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050147303A1 (en) 2003-11-19 2005-07-07 Xiang Sean Zhou System and method for detecting and matching anatomical stuctures using appearance and shape
JP2007513649A (en) 2003-11-19 2007-05-31 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド Anatomical structure detection and matching system and method using appearance and shape
US20080260226A1 (en) 2007-04-12 2008-10-23 Fujifilm Corporation Method, apparatus, and program for judging image recognition results, and computer readable medium having the program stored therein
JP2009095644A (en) 2007-04-12 2009-05-07 Fujifilm Corp Image recognition result determination apparatus, method, and program
WO2009148041A1 (en) 2008-06-03 2009-12-10 株式会社 日立メディコ Medical image processing device and method for processing medical image
US20110082371A1 (en) 2008-06-03 2011-04-07 Tomoaki Chono Medical image processing device and medical image processing method
US20100240996A1 (en) 2009-03-18 2010-09-23 Razvan Ioan Ionasec Valve assessment from medical diagnostic imaging data
WO2014155825A1 (en) 2013-03-29 2014-10-02 日立アロカメディカル株式会社 Medical diagnosis device and measurement method thereof
WO2017158897A1 (en) 2016-03-15 2017-09-21 株式会社日立製作所 Ultrasonic diagnostic device

Also Published As

Publication number Publication date
JP2021137116A (en) 2021-09-16

Similar Documents

Publication Publication Date Title
US10546378B2 (en) System and method of mitral valve quantification
EP2365471B1 (en) Diagnosis assisting apparatus, coronary artery analyzing method and recording medium having a coronary artery analzying program stored therein
US7430309B2 (en) Computation of a geometric parameter of a cardiac chamber from a cardiac tomography data set
JP5601378B2 (en) Medical image processing device
JP7409624B2 (en) Information processing device, information processing method, and program
JP2011019768A (en) Image processor, image processing method and image processing program
JP7516072B2 (en) IMAGE PROCESSING APPARATUS, MEDICAL IMAGE DIAGNOSIS APPARATUS, IMAGE PROCESSING METHOD, PROGRAM, AND LEARNING APPARATUS
JP2014524602A (en) Image processing apparatus, image processing method, and program
JP2022111704A (en) Image processing device, medical imaging device, image processing method, and program
CN116158846B (en) Integral heart three-dimensional mapping method and system for complex arrhythmia
JP2002140689A (en) Medical image processor and its method
JP2022111705A (en) Learning device, image processing device, medical imaging device, learning method and program
JP7412223B2 (en) Image processing device, medical image diagnostic device, image processing method, program, and learning device
JP7356330B2 (en) Image processing device, image processing method, and program
JP2017080157A (en) Image processing device
JP7623526B2 (en) Image processing device, image processing method, and program
JP7681977B2 (en) Image processing device, image processing method, medical imaging device, and program
JP2022052210A (en) Information processing device, information processing method, and program
CN114300096B (en) TRUS image-based prostate activity apparent model building method
KR20210068189A (en) Method for determining lesion based on medical image
US20240338941A1 (en) Image processing apparatus, and image processing method
US20250148594A1 (en) Image processing apparatus and image processing method
Udrea et al. Nonlinear deterministic methods for computer aided diagnosis in case of kidney diseases
JP2023125906A (en) Neural network, and information processing apparatus and information processing method using the neural network
JP2024070359A (en) Image processing device, method for processing image and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240501

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240703

R150 Certificate of patent or registration of utility model

Ref document number: 7516072

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150