[go: up one dir, main page]

JP7483361B2 - Medical image processing device, medical image diagnostic device, and medical image processing program - Google Patents

Medical image processing device, medical image diagnostic device, and medical image processing program Download PDF

Info

Publication number
JP7483361B2
JP7483361B2 JP2019221489A JP2019221489A JP7483361B2 JP 7483361 B2 JP7483361 B2 JP 7483361B2 JP 2019221489 A JP2019221489 A JP 2019221489A JP 2019221489 A JP2019221489 A JP 2019221489A JP 7483361 B2 JP7483361 B2 JP 7483361B2
Authority
JP
Japan
Prior art keywords
image
original image
medical
original
converted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019221489A
Other languages
Japanese (ja)
Other versions
JP2021090495A (en
Inventor
真樹 吉田
真次 村松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to JP2019221489A priority Critical patent/JP7483361B2/en
Publication of JP2021090495A publication Critical patent/JP2021090495A/en
Application granted granted Critical
Publication of JP7483361B2 publication Critical patent/JP7483361B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)

Description

本明細書及び図面に開示の実施形態は、医用画像処理装置、医用画像診断装置および医用画像処理プログラムに関する。 The embodiments disclosed in this specification and the drawings relate to a medical image processing device, a medical image diagnostic device, and a medical image processing program.

医用画像から解剖学的特徴部位(Anatomical Landmark)などの特徴部位を抽出する技術がある。抽出した特徴部位によって、例えば、スキャン範囲の自動設定、または、撮影時の放射線の線量などのスキャン条件の調整が可能となる。
しかし、当該技術は、撮影画像から特徴部位を抽出するため、撮影画像に描画されていない特徴部位は抽出されない。例えば、実際には人体に存在し、MR(Magnetic Resonance)画像には描出されるが、CT(Computed Tomography)画像には描出されない特徴部位については、CT画像に対して当該技術を適用しても抽出することができない。
There is a technology that extracts anatomical landmarks and other features from medical images. The extracted landmarks can be used to automatically set the scan range or adjust scan conditions such as the radiation dose during imaging.
However, since this technique extracts characteristic parts from a photographed image, characteristic parts that are not depicted in the photographed image cannot be extracted. For example, characteristic parts that actually exist in the human body and are depicted in MR (Magnetic Resonance) images but are not depicted in CT (Computed Tomography) images cannot be extracted even if this technique is applied to CT images.

特表2016-509508号公報JP 2016-509508 A 特表2007-526016号公報JP 2007-526016 A 特開2008-12027号公報JP 2008-12027 A

本明細書及び図面に開示の実施形態が解決しようとする課題の一つは、医用画像からより多くの情報を取得することである。ただし、本明細書及び図面に開示の実施形態により解決しようとする課題は上記課題に限られない。後述する実施形態に示す各構成による各効果に対応する課題を他の課題として位置づけることもできる。 One of the problems that the embodiments disclosed in this specification and the drawings attempt to solve is to obtain more information from medical images. However, the problems that the embodiments disclosed in this specification and the drawings attempt to solve are not limited to the above problem. Problems that correspond to the effects of each configuration shown in the embodiments described below can also be positioned as other problems.

実施形態に係る医用画像処理装置は、取得部と、画像処理部と、抽出部とを含む。取得部は、元画像を取得する。画像処理部は、前記元画像に対して画像変換を実行し、前記元画像からは認識困難であるが被検体には存在している特徴を含む変換画像を生成する。抽出部は、前記元画像および前記変換画像から特徴部位を抽出する。 The medical image processing device according to the embodiment includes an acquisition unit, an image processing unit, and an extraction unit. The acquisition unit acquires an original image. The image processing unit performs image transformation on the original image to generate a transformed image that includes features that are difficult to recognize from the original image but are present in the subject. The extraction unit extracts feature areas from the original image and the transformed image.

図1は、第1の実施形態に係る医用画像処理装置を示すブロック図である。FIG. 1 is a block diagram showing a medical image processing apparatus according to the first embodiment. 図2は、第1の実施形態に係る医用画像処理装置の特徴部位の抽出処理を示すフローチャートである。FIG. 2 is a flowchart showing the process of extracting a characteristic portion of the medical image processing apparatus according to the first embodiment. 図3は、第1の実施形態に係る医用画像処理装置の具体的な動作例を示す図である。FIG. 3 is a diagram showing a specific operation example of the medical image processing apparatus according to the first embodiment. 図4は、第1の実施形態の変形例に係る医用画像処理装置の具体的な動作例を示す図である。FIG. 4 is a diagram showing a specific operation example of the medical image processing apparatus according to the modified example of the first embodiment. 図5は、第2の実施形態に係る医用画像処理装置の画像位置合わせ処理を示すフローチャートである。FIG. 5 is a flowchart showing the image registration process of the medical image processing apparatus according to the second embodiment. 図6は、第2の実施形態に係る医用画像処理装置の具体的な動作例を示す図である。FIG. 6 is a diagram showing a specific operation example of the medical image processing apparatus according to the second embodiment. 図7は、第3の実施形態に係る医用画像処理装置の動作例を示すフローチャートである。FIG. 7 is a flowchart showing an example of the operation of the medical image processing apparatus according to the third embodiment. 図8は、第3の実施形態に係る医用画像処理装置により生成されるガイド画像の具体例を示す図である。FIG. 8 is a diagram showing a specific example of a guide image generated by the medical image processing apparatus according to the third embodiment. 図9は、第4の実施形態に係る医用画像診断装置である、X線CT装置を示すブロック図である。FIG. 9 is a block diagram showing an X-ray CT apparatus, which is a medical image diagnostic apparatus according to the fourth embodiment.

以下、図面を参照しながら本実施形態に係わる医用画像処理装置、医用画像診断装置および医用画像処理プログラムについて説明する。以下の実施形態では、同一の参照符号を付した部分は同様の動作をおこなうものとして、重複する説明を適宜省略する。以下、一実施形態について図面を用いて説明する。 The medical image processing device, medical image diagnostic device, and medical image processing program according to this embodiment will be described below with reference to the drawings. In the following embodiment, parts with the same reference numerals perform similar operations, and duplicated descriptions will be omitted as appropriate. One embodiment will be described below with reference to the drawings.

なお、以下の本実施形態に係る医用画像処理装置は、ワークステーションに含まれてもよいし、クラウドサーバなどのサーバに含まれてもよい。 The medical image processing device according to the embodiment described below may be included in a workstation or in a server such as a cloud server.

(第1の実施形態)
第1の実施形態に係る医用画像処理装置について図1のブロック図を参照して説明する。
第1の実施形態に係る医用画像処理装置1は、メモリ11と、処理回路13と、入力インタフェース15と、通信インタフェース17とを含む。処理回路13は、取得機能131と、画像処理機能133と、抽出機能135と、表示制御機能137とを含む。
First Embodiment
A medical image processing apparatus according to a first embodiment will be described with reference to the block diagram of FIG.
The medical image processing apparatus 1 according to the first embodiment includes a memory 11, a processing circuitry 13, an input interface 15, and a communication interface 17. The processing circuitry 13 includes an acquisition function 131, an image processing function 133, an extraction function 135, and a display control function 137.

メモリ11は、種々の情報を記憶するHDD(Hard Disk Drive)やSSD(Solid State Drive)、集積回路記憶装置等の記憶装置である。メモリ11は、HDDやSSD等以外にも、CD(Compact Disc)、DVD(Digital Versatile Disc)、フラッシュメモリ等の可搬性記憶媒体や、RAM(Random Access Memory)等の半導体メモリ素子等との間で種々の情報を読み書きする駆動装置であってもよい。また、メモリの保存領域は、医用画像処理装置1内にあってもよいし、ネットワークで接続された外部記憶装置内にあってもよい。メモリ11は、学習済みモデル、各種医用データ(生データ、投影データ、サイノグラムなどの中間データなど)および各種医用画像(再構成画像、CT(Computed Tomography)画像、MR(Magnetic Resonance)画像、超音波画像、PET(positron emission tomography )画像、SPECT(Single Photon Emission CT)画像など)を格納することを想定するが、これらの学習済みモデル、医用データ及び医用画像などは、外部に記憶されていてもよい。 The memory 11 is a storage device such as an HDD (Hard Disk Drive), SSD (Solid State Drive), or integrated circuit storage device that stores various information. In addition to an HDD or SSD, the memory 11 may be a drive device that reads and writes various information between a portable storage medium such as a CD (Compact Disc), DVD (Digital Versatile Disc), or flash memory, or a semiconductor memory element such as a RAM (Random Access Memory). The memory storage area may be within the medical image processing device 1 or may be within an external storage device connected via a network. The memory 11 is intended to store trained models, various medical data (raw data, projection data, intermediate data such as sinograms, etc.), and various medical images (reconstructed images, computed tomography (CT) images, magnetic resonance (MR) images, ultrasound images, positron emission tomography (PET) images, single photon emission CT (SPECT) images, etc.), but these trained models, medical data, medical images, etc. may be stored externally.

処理回路13は、例えば、ハードウェア資源として、CPU(Central Processing Unit)やMPU(Micro Processing Unit)、GPU(Graphics Processing Unit)等のプロセッサとROM(Read Only Memory)やRAM(Random Access Memory)等のメモリとを含む。また処理回路13は、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)やフィールド・プログラマブル・ゲート・アレイ(Field Programmable Gate Array:FPGA)、他の複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)により実現されてもよい。処理回路13は、メモリに展開されたプログラムを実行するプロセッサにより、取得機能131と、画像処理機能133と、抽出機能135と、表示制御機能137とを実行する。なお、各機能(取得機能131、画像処理機能133、抽出機能135および表示制御機能137)は単一の処理回路で実現される場合に限らない。複数の独立したプロセッサを組み合わせて処理回路13を構成し、各プロセッサがプログラムを実行することにより各機能を実現するものとしても構わない。 The processing circuit 13 includes, for example, a processor such as a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or a GPU (Graphics Processing Unit), and a memory such as a ROM (Read Only Memory) or a RAM (Random Access Memory) as hardware resources. The processing circuit 13 may also be realized by an Application Specific Integrated Circuit (ASIC), a Field Programmable Gate Array (FPGA), other Complex Programmable Logic Devices (CPLDs), or Simple Programmable Logic Devices (SPLDs). The processing circuit 13 executes the acquisition function 131, the image processing function 133, the extraction function 135, and the display control function 137 by a processor that executes a program deployed in the memory. Note that each function (acquisition function 131, image processing function 133, extraction function 135, and display control function 137) is not limited to being realized by a single processing circuit. The processing circuit 13 may be configured by combining multiple independent processors, with each processor executing a program to achieve each function.

取得機能131により処理回路13は、入力となる画像(以下、元画像という)を取得する。
画像処理機能133により処理回路13は、元画像に対して画像変換を実行し、元画像からは認識困難であるが被検体には存在している特徴を含む変換画像を生成する。
抽出機能135により処理回路13は、元画像および前記変換画像から特徴部位を抽出する。特徴部位は、例えば解剖学的特徴部位でもよいし、腫瘍などの病変部位でもよい。
表示制御機能137により処理回路13は、特徴部位を示す情報を元画像および変換画像の少なくともいずれか一方に表示する。例えば、元画像から抽出した特徴部位および変換画像から抽出した特徴部位を元画像に重畳した画像を、ディスプレイまたはプロジェクタを介してスクリーンなどに表示させるように画像の出力を制御すればよい。
The processing circuit 13 acquires an input image (hereinafter, referred to as an original image) using the acquisition function 131.
Using the image processing function 133, the processing circuitry 13 performs image transformation on the original image to generate a transformed image that includes features that are difficult to recognize from the original image but are present in the subject.
The processing circuitry 13 extracts features from the original image and the converted image using an extraction function 135. The features may be, for example, anatomical features or lesions such as tumors.
The processing circuitry 13 displays information indicating the characteristic parts on at least one of the original image and the converted image by the display control function 137. For example, the processing circuitry 13 may control the output of the image so that an image in which the characteristic parts extracted from the original image and the characteristic parts extracted from the converted image are superimposed on the original image is displayed on a screen or the like via a display or projector.

入力インタフェース15は、ユーザから各種の入力操作を受け付け、受け付けた入力操作に基づく信号をメモリ11、処理回路13、通信インタフェース17などに出力する。例えば、マウス、キーボード、トラックボール、スイッチ、ボタン、ジョイスティック、タッチパッド及びタッチパネルディスプレイ等が適宜、使用可能となっている。なお、本実施形態において、入力インタフェース15は、マウス、キーボード、トラックボール、スイッチ、ボタン、ジョイスティック、タッチパッド及びタッチパネルディスプレイ等の物理的な操作部品を備えるものに限られない。例えば、装置とは別体に設けられた外部の入力機器から入力操作に対応する信号を受け取り、この信号を処理回路13へ出力するような処理回路も入力インタフェース15の例に含まれる。 The input interface 15 accepts various input operations from the user and outputs signals based on the accepted input operations to the memory 11, the processing circuit 13, the communication interface 17, etc. For example, a mouse, a keyboard, a trackball, a switch, a button, a joystick, a touchpad, a touch panel display, etc. can be used as appropriate. Note that in this embodiment, the input interface 15 is not limited to one equipped with physical operating parts such as a mouse, a keyboard, a trackball, a switch, a button, a joystick, a touchpad, and a touch panel display. For example, a processing circuit that receives a signal corresponding to an input operation from an external input device provided separately from the device and outputs this signal to the processing circuit 13 is also included as an example of the input interface 15.

通信インタフェース17は、外部と通信するための無線又は有線のインタフェースであり、一般的なインタフェースを用いればよいため、ここでの説明は省略する。 The communication interface 17 is a wireless or wired interface for communicating with the outside world, and a general interface can be used, so a description of it will be omitted here.

次に、第1の実施形態に係る医用画像処理装置1の特徴部位の抽出処理について、図2のフローチャートを参照して説明する。
ステップS21では、取得機能131により処理回路13が、元画像を取得する。元画像は、例えば、CT装置であれば位置決めスキャンにより撮影した位置決め画像(スキャノ画像ともいう)を用いればよい。なお、位置決め画像に限らず、本スキャンで撮影したCT画像であってもよい。
なお、特徴部位を抽出できれば、元画像はCT画像でなくともよい。例えば、元画像は、MR画像、CT画像、X線画像といった、他の医用画像診断装置であってもよい。または、元画像は、医用画像診断装置により撮影された画像に限らず、サーモグラフィのような撮影装置によって得られた画像、光学カメラにより得られる画像、さらには医学用の書籍に掲載されるような写真であってもよい。
Next, the extraction process of a characteristic portion by the medical image processing apparatus 1 according to the first embodiment will be described with reference to the flowchart of FIG.
In step S21, the processing circuitry 13 acquires an original image by the acquisition function 131. For example, the original image may be a positioning image (also called a scanogram image) captured by a positioning scan in the case of a CT device. Note that the original image is not limited to the positioning image, and may be a CT image captured by a main scan.
In addition, the original image does not have to be a CT image as long as the characteristic portion can be extracted. For example, the original image may be an MR image, a CT image, an X-ray image, or another medical image diagnostic device. Alternatively, the original image is not limited to an image taken by a medical image diagnostic device, but may be an image obtained by a photographing device such as a thermograph, an image obtained by an optical camera, or even a photograph published in a medical book.

ステップS22では、画像処理機能133により処理回路13が、元画像を画像変換し、変換画像を生成する。変換画像は、上述の様に元画像からは認識困難であるが被検体には存在している特徴を含む画像、言い換えれば、元画像で抽出される可能性がある特徴部位とは異なる特徴部位が抽出できる可能性がある画像であればよい。
具体例としては、図3を参照して後述するが、元画像は、第1の医用画像診断装置を用いて被検体を撮影して得られた画像であり、変換画像は、第1の医用画像診断装置とは異なる第2の医用画像診断装置を用いて被検体を撮影した場合を想定した推定画像である。
例えば、元画像がCT装置により撮影された画像であれば、撮像原理が異なる医用画像診断装置(MRI装置など)で取得した画像に変換する学習済みモデルをディープラーニングなどにより生成する。ネットワークのモデルとしては、DCNN(Deep Convolutional Neural Network)、pix2pixなどの画像生成ネットワークが挙げられる。当該学習済みモデルをCT画像である元画像に適用することで、MR画像を変換画像として取得すればよい。
In step S22, the processing circuitry 13 performs image conversion on the original image to generate a converted image using the image processing function 133. The converted image may be an image that includes features that are difficult to recognize from the original image but exist in the subject, as described above, in other words, an image from which a feature portion different from a feature portion that may be extracted from the original image may be extracted.
As a specific example, which will be described later with reference to Figure 3, the original image is an image obtained by photographing a subject using a first medical image diagnostic device, and the converted image is an estimated image assuming that the subject is photographed using a second medical image diagnostic device different from the first medical image diagnostic device.
For example, if the original image is an image captured by a CT device, a trained model that converts the image into an image captured by a medical image diagnostic device (such as an MRI device) with a different imaging principle is generated by deep learning or the like. Examples of the network model include image generation networks such as DCNN (Deep Convolutional Neural Network) and pix2pix. By applying the trained model to the original image, which is a CT image, an MR image can be obtained as a converted image.

なお、学習済みモデルを元画像に適用して変換画像を生成することに限らず、元画像に画像処理を施すことで変換画像を生成してもよい。例えば、元画像に対してエッジ強調処理などを施し、エッジ強調画像を変換画像としてもよい。このような画像処理であっても、元画像とは異なる輝度値およびテクスチャの画像を得ることができるため、元画像とは異なる特徴部位が算出できる可能性がある。
また、変換画像は1つに限らず、複数種類の異なる変換画像を生成してもよい。また、変換画像の画像サイズは問わず、元画像と同じサイズであってもよいし、異なるサイズであってもよい。
In addition, the converted image may be generated by applying image processing to the original image, not limited to applying the trained model to the original image. For example, the original image may be subjected to edge enhancement processing, and the edge-enhanced image may be used as the converted image. Even with such image processing, it is possible to obtain an image with a luminance value and texture different from that of the original image, and therefore it is possible to calculate a feature portion different from that of the original image.
In addition, the number of converted images is not limited to one, and multiple different types of converted images may be generated. In addition, the image size of the converted image does not matter, and the converted image may be the same size as the original image or may be a different size.

元画像から変換画像への変換処理は、任意の次元の元画像から任意の次元の画像を作成してもよい。例えば、3次元の元画像から3次元の変換画像を生成してもよいし、断面画像から断面画像を生成してもよいし、3次元の元画像から2次元の断面画像を生成してもよい。また、2次元の断面画像から3次元の画像を生成してもよい。 The conversion process from an original image to a transformed image may create an image of any dimension from an original image of any dimension. For example, a three-dimensional transformed image may be generated from a three-dimensional original image, a cross-sectional image may be generated from a cross-sectional image, or a two-dimensional cross-sectional image may be generated from a three-dimensional original image. Also, a three-dimensional image may be generated from a two-dimensional cross-sectional image.

さらに、変換画像として、元画像とは異なる位置または断面の画像を生成してもよい。
例えば、既存の断面推定処理を用いて、元画像の位置から異なる、直交する断面の画像または体軸方向にずれた断面の画像を推定することで、元画像の位置に直交する画像を変換画像として推定してもよい。
Furthermore, an image at a position or cross section different from that of the original image may be generated as the converted image.
For example, an existing cross-section estimation process may be used to estimate an image of a cross-section that is different from the position of the original image, or an image of a cross-section that is shifted in the body axis direction, so that an image that is orthogonal to the position of the original image is estimated as the transformed image.

ステップS23では、抽出機能135により処理回路13が、元画像および変換画像から特徴部位を抽出する。特徴部位の抽出処理は、既存の抽出手法を用いればよいため、具体的な説明は省略する。特徴部位は、点として算出してもよいし、体積または面積を持つ領域として算出してもよい。当該領域は、例えば、特徴部位が点として抽出された場合、抽出された点に基づいて一般的なセグメンテーション処理を行い、領域として算出してもよい。 In step S23, the processing circuit 13 extracts characteristic parts from the original image and the converted image using the extraction function 135. The extraction process of the characteristic parts can use existing extraction methods, so a detailed description will be omitted. The characteristic parts may be calculated as points, or as regions having a volume or area. For example, if the characteristic parts are extracted as points, the region may be calculated by performing general segmentation processing based on the extracted points.

なお、抽出する情報は、特徴部位に関する情報に限らず、体積または面積等の統計値を算出してもよい。さらには、元画像および変換画像のそれぞれ単独の画像からは取得できないが、両者を組み合わせることで算出可能な情報を抽出および生成してもよい。例えば、CT画像とMR画像の重畳処理または差分処理を行うことで判定可能な情報を用いてもよい。または、放射線情報と遺伝子情報と多変量解析とを組み合わせたRagiogenomics的観点からパターン認識により抽出された複数の画像特徴に基づいて特定可能な医療情報を算出してもよい。 The extracted information is not limited to information about characteristic parts, and statistical values such as volume or area may be calculated. Furthermore, information that cannot be obtained from either the original image or the converted image alone, but can be calculated by combining the two, may be extracted and generated. For example, information that can be determined by superimposing or subtracting CT images and MR images may be used. Alternatively, identifiable medical information may be calculated based on multiple image features extracted by pattern recognition from a Ragiogenomics perspective that combines radiation information, genetic information, and multivariate analysis.

ステップS24では、表示制御機能137により処理回路13が、抽出した特徴部位に関する情報を元画像および変換画像の少なくともいずれか一方に表示する。例えば、特徴部位を元画像に重畳表示する場合は、元画像自体から抽出される特徴部位に加えて、変換画像から抽出された特徴部位が元画像上に表示されることになる。 In step S24, the processing circuit 13 uses the display control function 137 to display information about the extracted characteristic parts on at least one of the original image and the converted image. For example, when the characteristic parts are superimposed on the original image, the characteristic parts extracted from the converted image are displayed on the original image in addition to the characteristic parts extracted from the original image itself.

特徴部位に関する情報は、記号、文字、色および境界線などの少なくとも1つ以上により表示されればよい。特徴部位の表示は、特徴部位の抽出元が元画像であるか変換画像であるかにより色を変えて表示するなど、区別可能な態様で表示してもよい。 The information about the characteristic parts may be displayed using at least one of symbols, characters, colors, and boundaries. The characteristic parts may be displayed in a distinguishable manner, such as by changing the color depending on whether the characteristic part was extracted from the original image or the converted image.

なお、抽出された特徴部位および特徴部位が重畳表示された画像は、メモリ11と外部のデータベース(図示せず)との少なくとも一方に保存されてもよい。 The extracted characteristic features and the image in which the characteristic features are superimposed may be stored in at least one of the memory 11 and an external database (not shown).

次に、第1の実施形態に係る医用画像処理装置1の具体的な動作例について、図3を参照して説明する。
図3の例では、元画像として被検体の頭部をX線CT装置で撮影したCT画像を用い、変換画像として被検体の頭部の同じ断面位置をMRI装置で撮影した場合を想定したMR画像を用いる。なお、変換画像として想定するMR画像は、実際に被検体をMR装置で撮影したMR画像ではなく、CT画像から変換した画像であるため、ここでは推定MR画像と呼ぶ。また、特徴部位として解剖学的特徴部位を抽出する場合を想定する。
Next, a specific example of the operation of the medical image processing apparatus 1 according to the first embodiment will be described with reference to FIG.
In the example of Fig. 3, a CT image of the subject's head taken by an X-ray CT device is used as the original image, and an MR image assuming that the same cross-sectional position of the subject's head is taken by an MRI device is used as the converted image. Note that the MR image assumed as the converted image is not an actual MR image of the subject taken by an MR device, but an image converted from a CT image, and is therefore referred to as an estimated MR image here. Also, a case is assumed in which anatomical characteristic parts are extracted as characteristic parts.

図3に示すように、画像処理機能133により処理回路13が、元画像であるCT画像31に対して、例えばCT画像からMR画像に変換する学習済みモデルを適用して画像変換し、推定MR画像32を生成する。 As shown in FIG. 3, the processing circuit 13 uses the image processing function 133 to convert the original image, CT image 31, by applying a trained model for converting a CT image to an MR image, for example, to generate an estimated MR image 32.

続いて、抽出機能135により処理回路13が、CT画像31に対して解剖学的特徴部位を抽出する特徴抽出処理を行う。ここでは、CT画像31から脳幹を解剖学的特徴部位33として抽出されたとする。図3の例では、解剖学的特徴部位33は、斜線の領域を囲む丸の領域で表示される。 Then, the processing circuit 13 performs feature extraction processing using the extraction function 135 to extract anatomical features from the CT image 31. Here, it is assumed that the brain stem is extracted as the anatomical feature 33 from the CT image 31. In the example of FIG. 3, the anatomical feature 33 is displayed as a circular area surrounding the shaded area.

さらに、抽出機能135により処理回路13が、推定MR画像32に対して解剖学的特徴部位を抽出する特徴抽出処理を行う。ここでは、推定MR画像32から毛細血管網の一種である脈絡叢が解剖学的特徴部位34として抽出されたとする。MR画像はCT画像と比較して血管や軟部組織などがより鮮明に描出されるため、CT画像31からは抽出しにくい解剖学的特徴部位を推定MR画像32から抽出できる。図3の例では、解剖学的特徴部位34は、白抜きの領域を囲む丸の領域で表示される。 Furthermore, the processing circuit 13 performs feature extraction processing using the extraction function 135 to extract anatomical features from the estimated MR image 32. Here, it is assumed that the choroid plexus, a type of capillary network, is extracted as the anatomical feature 34 from the estimated MR image 32. Since MR images depict blood vessels and soft tissues more clearly than CT images, it is possible to extract anatomical features from the estimated MR image 32 that are difficult to extract from the CT image 31. In the example of FIG. 3, the anatomical feature 34 is displayed as a circular area surrounding a white area.

表示制御機能137により処理回路13が、解剖学的特徴部位33および解剖学的特徴部位34をCT画像31に重畳処理する。結果として表示される画像として表示画像35が生成される。表示画像35に示すように、解剖学的特徴部位の表示形式を、解剖学的特徴部位の抽出元に応じて区別して表示することで、どのような画像に基づいて得られた解剖学的特徴部位であるかを一見して把握できる。 The display control function 137 causes the processing circuit 13 to superimpose the anatomical feature 33 and the anatomical feature 34 onto the CT image 31. As a result, a display image 35 is generated as the image to be displayed. As shown in the display image 35, the display format of the anatomical feature is displayed differently depending on the source from which the anatomical feature was extracted, so that it is possible to understand at a glance what image the anatomical feature was obtained based on.

なお、図3の太線で囲まれた部分の処理を学習済みモデルで構成してもよい。すなわち、元画像(CT画像31)を入力データ、CT画像31に解剖学的特徴部位33および解剖学的特徴部位34が重畳表示された表示画像35を正解データとした学習用データに基づいて、多層畳み込みニューラルネットワーク(DCNN)等のネットワークモデルを学習させ、CT画像31から表示画像35を出力するような学習済みモデルを構築してもよい。これにより、CT画像から直接、CT画像および推定MR画像から抽出される解剖学的特徴部位を算出できる。
また、特徴部位として病変部位を抽出する場合は、例えば病変として骨肉腫を抽出する場合、X線撮影装置で撮影されたX線画像またはX線CT装置で撮影されたCT画像では、骨の内部における骨肉腫の形成状態までは把握しきれない。一方、MRI装置で撮影されたMR画像であれば、骨の内部の状態をX線画像およびCT画像よりも鮮明に描出できるため、変換画像としてMR画像を生成することで、解剖学的特徴部位を抽出する場合と同様の効果を奏することができる。
The processing of the part surrounded by the thick line in Fig. 3 may be configured by a trained model. That is, a trained model may be constructed in which a network model such as a multi-layer convolutional neural network (DCNN) is trained based on training data in which the original image (CT image 31) is input data and a display image 35 in which the anatomical feature 33 and the anatomical feature 34 are superimposed on the CT image 31 is used as correct answer data, and a trained model is constructed in which the display image 35 is output from the CT image 31. This makes it possible to calculate the anatomical feature extracted from the CT image and the estimated MR image directly from the CT image.
In addition, when extracting a lesion as a characteristic site, for example, when extracting osteosarcoma as a lesion, the formation state of osteosarcoma inside the bone cannot be fully grasped with an X-ray image taken with an X-ray imaging device or a CT image taken with an X-ray CT device. On the other hand, an MR image taken with an MRI device can depict the state inside the bone more clearly than an X-ray image or a CT image, so that by generating an MR image as a converted image, it is possible to achieve the same effect as when extracting an anatomical characteristic site.

以上に示した第1の実施形態によれば、元画像を画像変換した変換画像から特徴部位を抽出することで、元画像からは抽出することが難しい特徴部位を抽出することができる。これにより、元画像の医用画像からより多くの情報を取得することができる。 According to the first embodiment described above, by extracting characteristic parts from a converted image obtained by image-converting an original image, it is possible to extract characteristic parts that are difficult to extract from the original image. This makes it possible to obtain more information from the medical image of the original image.

これにより、例えば、特徴部位に関する情報に基づいて、医用画像診断装置における撮影条件、具体的にX線CT装置であればスキャン位置および線量などのスキャン条件を調整するための指標として、本実施形態に係る特徴部位の抽出結果を利用できる。また、表示制御機能により処理回路が、解剖学的特徴部位が閾値以上抽出できれば、表示画像として適切な画像であるとして表示する、または、診断のために適切な画像であるとしてデータベースに保存する、といった自動選択処理のための指標として当該抽出結果を利用することもできる。
さらに、元画像および変換画像から抽出した特徴部位の情報を、元画像を撮影した医用画像診断装置とは異なる医用画像診断装置で撮影する場合にも利用できる。例えば、IVR(Interventional Radiology)-CTで撮影したCT画像および当該CT画像の変換画像から、人体組織の位置および領域を抽出する。その後X線診断装置でX線撮影を行なう場合に、人体組織の位置および領域の情報に基づいて補正したX線画像を生成できる。具体的には、例えば、診断または治療の妨げとなる組織領域を特徴部位として抽出し、X線画像上の当該組織領域の画素値を補正することで視認性を向上させることができる。
As a result, for example, the extraction result of the characteristic parts according to this embodiment can be used as an index for adjusting the imaging conditions in the medical image diagnostic device, specifically the scan conditions such as the scan position and dose in the case of an X-ray CT device, based on the information on the characteristic parts. Furthermore, if the processing circuit can extract anatomical characteristic parts at a threshold value or more by the display control function, the extraction result can be used as an index for automatic selection processing, such as displaying the image as an appropriate image to be displayed, or storing the image in a database as an appropriate image for diagnosis.
Furthermore, the information on the characteristic parts extracted from the original image and the converted image can be used when the image is captured by a medical image diagnostic device different from the medical image diagnostic device that captured the original image. For example, the position and area of human tissue are extracted from a CT image captured by an IVR (Interventional Radiology)-CT and a converted image of the CT image. When X-ray photography is then performed by an X-ray diagnostic device, a corrected X-ray image can be generated based on the information on the position and area of the human tissue. Specifically, for example, a tissue area that hinders diagnosis or treatment can be extracted as a characteristic part, and the pixel value of the tissue area on the X-ray image can be corrected to improve visibility.

(第1の実施形態の変形例)
第1の実施形態の変形例では、元画像は、第1の撮影条件で撮影された画像であり、変換画像は、第1の撮影条件とは異なる第2の撮影条件で撮影された場合を想定した推定画像である例を示す。
(Modification of the first embodiment)
In a modified example of the first embodiment, the original image is an image captured under a first shooting condition, and the converted image is an estimated image assuming that the image is captured under a second shooting condition different from the first shooting condition.

第1の実施形態の変形例に係る医用画像処理装置1の具体的な動作例について、図4を参照して説明する。
図4は、X線CT装置で被検体の肝臓を含む腹部の断面を非造影で撮影した非造影画像から、変換画像としてX線CT装置で造影剤を用いて同じ断面を撮影した造影画像を生成する例を示す図である。なお、変換画像として想定する造影画像は、実際に非造影画像を撮影した被検体に造影剤を注入して撮影した画像ではなく画像変換による画像であるため、ここでは推定造影画像と呼ぶ。特徴部位は、解剖学的特徴部位を想定する。
A specific operation example of the medical image processing apparatus 1 according to the modified example of the first embodiment will be described with reference to FIG.
4 is a diagram showing an example of generating a contrast image as a converted image by taking a non-contrast image of a cross section of the abdomen including the liver of a subject using an X-ray CT scanner with a contrast agent from the non-contrast image of the same cross section using an X-ray CT scanner. Note that the contrast image assumed as the converted image is an image obtained by image conversion, not an image actually taken by injecting a contrast agent into the subject from whom the non-contrast image was taken, and is therefore called an estimated contrast image here. The characteristic parts are assumed to be anatomical characteristic parts.

図4に示すように、画像処理機能133により処理回路13が、元画像である非造影画像41に対して、例えば非造影画像から造影画像に変換する学習済みモデルを適用して画像変換し、推定造影画像42を生成する。当該学習済みモデルは、非造影画像を入力データ、造影画像を正解データとした学習用データに基づいて、多層畳み込みニューラルネットワーク(DCNN)等のネットワークモデルを学習させ、元画像から変換画像を出力するような学習済みモデルを構築してもよい。
学習用データは、時相画像を撮影した通常の造影検査の画像から取得できる。造影剤が十分に流れる前の時相の画像は非造影画像と同等に扱えることから、造影剤が十分に流れていない時相で撮影した画像を入力データ、造影剤が組織に流れている期間に撮影した造影画像を正解データとして学習用データを用意すればよい。正解データとして用いる造影画像は、特定の時相で撮影した1つの造影画像であってもよいし、複数の時相で撮影した造影画像から加算平均または最大値処理などの算術処理により算出した画像でもよい。
4, the image processing function 133 causes the processing circuitry 13 to perform image conversion on a non-contrast image 41, which is an original image, by applying a trained model that converts a non-contrast image into a contrast image, for example, to generate an estimated contrast image 42. The trained model may be constructed by training a network model such as a multi-layer convolutional neural network (DCNN) based on learning data in which a non-contrast image is input data and a contrast image is used as correct answer data, and outputting a converted image from the original image.
The learning data can be obtained from images of a normal contrast examination in which time-phase images are taken. Since an image of a time phase before the contrast agent has sufficiently flowed can be treated in the same way as a non-contrast image, the learning data can be prepared by using an image taken at a time phase in which the contrast agent has not sufficiently flowed as input data and a contrast image taken during the period in which the contrast agent is flowing in the tissue as correct answer data. The contrast image used as the correct answer data may be one contrast image taken at a specific time phase, or may be an image calculated by arithmetic processing such as averaging or maximum value processing from contrast images taken at multiple time phases.

続いて、抽出機能135により処理回路13が、非造影画像41に対して解剖学的特徴部位を抽出する特徴抽出処理を行う。ここでは、非造影画像41から血管が抽出されなかったとする。
さらに、抽出機能135により処理回路13が、推定造影画像42に対して解剖学的特徴部位を抽出する特徴抽出処理を行う。ここでは、推定造影画像42から門脈を含む血管が解剖学的特徴部位44として抽出されたとする。造影画像は非造影画像と比較して血管がより鮮明に描出されるため、非造影画像41からは抽出しにくい解剖学的特徴部位を推定造影画像42から抽出することができる。図4の例では、解剖学的特徴部位44は、白抜きの領域を囲む丸の領域で表示される。
Next, the processing circuitry 13 performs a feature extraction process using the extraction function 135 to extract anatomical features from the non-contrast image 41. Here, it is assumed that blood vessels are not extracted from the non-contrast image 41.
Furthermore, the processing circuitry 13 performs a feature extraction process using the extraction function 135 to extract anatomical features from the estimated contrast image 42. Here, it is assumed that blood vessels including the portal vein are extracted as anatomical features 44 from the estimated contrast image 42. Since blood vessels are depicted more clearly in a contrast image compared to a non-contrast image, it is possible to extract anatomical features from the estimated contrast image 42 that are difficult to extract from the non-contrast image 41. In the example of FIG. 4 , the anatomical features 44 are displayed as a circular region surrounding a white region.

表示制御機能137により処理回路13が、解剖学的特徴部位44を非造影画像41に重畳処理する。結果として表示される画像として表示画像45が生成される。 The display control function 137 causes the processing circuitry 13 to superimpose the anatomical feature 44 onto the non-contrast image 41. As a result, a display image 45 is generated as the image to be displayed.

なお、図3の場合と同様に、図4の太線で囲まれた部分の処理を学習済みモデルで構成してもよい。すなわち、元画像(非造影画像41)を入力データとし、非造影画像41および推定造影画像42から抽出した解剖学的特徴部位を非造影画像41に重畳表示した表示画像45を正解データとした学習用データに基づいて、多層畳み込みニューラルネットワーク(DCNN)等のネットワークモデルを学習させ、元画像から表示画像を出力するような学習済みモデルを構築してもよい。これにより、非造影画像から直接、推定造影画像から抽出される解剖学的特徴部位を算出できる。 As in the case of FIG. 3, the processing of the part surrounded by the thick line in FIG. 4 may be configured with a trained model. That is, a trained model may be constructed in which a network model such as a multi-layer convolutional neural network (DCNN) is trained based on training data in which the original image (non-contrast image 41) is used as input data, and display image 45, in which anatomical features extracted from non-contrast image 41 and estimated contrast image 42 are superimposed on non-contrast image 41, is used as correct answer data, and a trained model is constructed in which a display image is output from the original image. This makes it possible to calculate anatomical features extracted from the estimated contrast image directly from the non-contrast image.

また、非造影画像を元画像としたが、造影画像を元画像としてもよい。この場合、画像処理機能133により処理回路13が、元画像として用いた造影画像の時相と異なる時相の造影画像を、変換画像として生成するような画像処理を行えばよい。 Although the non-contrast image is used as the original image, the contrast image may be used as the original image. In this case, the processing circuitry 13 performs image processing using the image processing function 133 to generate, as a converted image, a contrast image of a different time phase from the time phase of the contrast image used as the original image.

ある血管に所定量の造影剤が流れたら撮影する撮影手法であるリアルプレップなどの場合、事前に血管位置をROI(Region of Interest)として設定する必要がある。そのため、一般的には、本撮影の前に参照画像スキャンが行われる。参照画像スキャンでは、被検体に造影剤を注入して注目部位を造影した状態で被検体を撮影することにより参照画像が生成される。参照画像に描出された注目血管に対してROIが設定される。
第1の実施形態の変形例によれば、本変形例による処理により得られる推定造影画像を用いることで、造影剤を用いることなく、ユーザによりまたは自動で容易にROIを設定できる。
In the case of real prep, which is an imaging technique in which an image is taken after a certain amount of contrast agent has flowed into a blood vessel, it is necessary to set the blood vessel position as a ROI (Region of Interest) in advance. For this reason, a reference image scan is generally performed before the actual imaging. In the reference image scan, a reference image is generated by injecting a contrast agent into the subject and imaging the subject in a state in which the area of interest is imaged. The ROI is set for the blood vessel of interest depicted in the reference image.
According to the modification of the first embodiment, by using an estimated contrast image obtained by processing according to this modification, an ROI can be easily set by a user or automatically without using a contrast agent.

(第2の実施形態)
第2の実施形態に係る医用画像処理装置では、解剖学的特徴部位の抽出結果を画像の位置合わせに用いる点が第1の実施形態と異なる。
第2の実施形態に係る医用画像処理装置の構成は、図1に示す医用画像処理装置の構成と同様であるため、説明を省略する。
Second Embodiment
The medical image processing apparatus according to the second embodiment differs from the first embodiment in that the extraction results of anatomical features are used for image registration.
The configuration of the medical image processing apparatus according to the second embodiment is similar to the configuration of the medical image processing apparatus shown in FIG. 1, and therefore a description thereof will be omitted.

第2の実施形態に係る医用画像処理装置1の動作例について、図5のフローチャートを参照して説明する。
ステップS51では、取得機能131により処理回路13が、元画像を取得する。
ステップS52では、取得機能131により処理回路13が、元画像に対して位置合わせ処理を実行する対象となる、位置合わせ対象画像を取得する。
An example of the operation of the medical image processing apparatus 1 according to the second embodiment will be described with reference to the flowchart of FIG.
In step S51, the processing circuit 13 acquires the original image using the acquisition function 131.
In step S52, the processing circuitry 13 uses the acquisition function 131 to acquire an alignment target image that is to be subjected to alignment processing with respect to the original image.

ステップS53では、画像処理機能133により処理回路13が、元画像および位置合わせ対象画像の少なくともいずれか一方に対して画像変換を行ない、変換画像を生成する。第2の実施形態に係る変換画像は、画像位置合わせに用いることを想定しているため、変換画像は、元画像との画像位置合わせに利用可能な特徴部位が算出できる可能性がある画像に変換できればよい。例えば、元画像がCT装置により撮影された画像であれば、血管および軟部組織が鮮明に描出できていないと考えられるため、CT画像と比較して血管および軟部組織が鮮明に描出可能なMR画像または造影画像などに変換できればよい。また、腫瘍などの病変を特徴部位として抽出する場合も、X線画像では不鮮明であるが、X線CT装置またはMRI装置などの他の医用画像診断装置であれば、より鮮明に病変を確認できると考えられるため、診断の目的に応じた変換画像が生成されればよい。
なお、変換画像の生成には、第1の実施形態と同様に学習済みモデルを用いてもよいし、その他の画像変換を用いてもよい。
In step S53, the processing circuit 13 performs image conversion on at least one of the original image and the image to be aligned by the image processing function 133 to generate a converted image. Since the converted image according to the second embodiment is intended to be used for image alignment, the converted image may be converted into an image that may be capable of calculating a feature portion that can be used for image alignment with the original image. For example, if the original image is an image taken by a CT device, it is considered that blood vessels and soft tissues are not clearly depicted, so it is sufficient to convert the image into an MR image or a contrast image that can clearly depict blood vessels and soft tissues compared to a CT image. In addition, when extracting a lesion such as a tumor as a feature portion, it is unclear in an X-ray image, but it is considered that the lesion can be more clearly confirmed with other medical image diagnostic devices such as an X-ray CT device or an MRI device, so it is sufficient to generate a converted image according to the purpose of diagnosis.
In addition, to generate the transformed image, a trained model may be used as in the first embodiment, or other image transformations may be used.

ステップS54では、図2のステップS23と同様に、抽出機能135により処理回路13が、元画像、位置合わせ対象画像および変換画像からそれぞれ、解剖学的特徴部位を抽出する。
ステップS55では、表示制御機能137により処理回路13が、抽出された解剖学的特徴部位に基づいて、元画像と位置合わせ対象画像との画像位置合わせを行なう。画像位置合わせの手法は、一般的な画像位置合わせの手法を用いればよいため、ここでの説明は省略する。
In step S54, similar to step S23 in FIG. 2, the processing circuitry 13 extracts anatomical features from each of the original image, the registration target image, and the converted image using the extraction function 135.
In step S55, the processing circuitry 13 performs image registration between the original image and the registration target image based on the extracted anatomical features by the display control function 137. Since a general image registration method may be used as the image registration method, a description thereof will be omitted here.

次に、第2の実施形態に係る医用画像処理装置1の具体的な動作例について、図6を参照して説明する。
図6では、被検体の腹部を撮影したCT画像と超音波画像との画像位置合わせを行う場合を想定する。元画像としてCT画像61が、位置合わせ対象画像として超音波画像62が、それぞれ取得されたとする。また、特徴部位としては、解剖学的特徴部位を想定する。
Next, a specific example of the operation of the medical image processing apparatus 1 according to the second embodiment will be described with reference to FIG.
6, a case is assumed in which image registration is performed between a CT image of the abdomen of a subject and an ultrasound image. A CT image 61 is acquired as an original image, and an ultrasound image 62 is acquired as an image to be registered. In addition, an anatomical feature is assumed as a feature.

画像処理機能133により処理回路13が、元画像であるCT画像61に対して、図4と同様の処理により画像変換し、推定MR画像63を生成する。
続いて、抽出機能135により処理回路13が、CT画像61、超音波画像62および推定MR画像63に対してそれぞれ、解剖学的特徴部位を抽出する特徴抽出処理を行う。ここでは、CT画像61から解剖学的特徴部位64が、超音波画像62から血管に関する解剖学的特徴部位65が、推定MR画像63から血管に関する解剖学的特徴部位66が、それぞれ抽出されるとする。
The processing circuitry 13 performs image conversion using the image processing function 133 on the CT image 61, which is the original image, by the same processing as that shown in FIG.
Next, the processing circuitry 13 performs feature extraction processing using the extraction function 135 to extract anatomical features from each of the CT image 61, the ultrasound image 62, and the estimated MR image 63. Here, it is assumed that an anatomical feature 64 is extracted from the CT image 61, an anatomical feature 65 related to blood vessels from the ultrasound image 62, and an anatomical feature 66 related to blood vessels from the estimated MR image 63.

表示制御機能137により処理回路13が、解剖学的特徴部位64,65,66に基づいて、CT画像61と超音波画像62との画像位置合わせ処理を行い、表示画像67を生成する。図6に示すように、画像位置合わせにおいて、CT画像61からは、超音波画像62で抽出された血管の解剖学的特徴部位65に対応する解剖学的特徴部位が抽出されていない。しかし、推定MR画像63で抽出された血管の解剖学的特徴部位66を手がかりとして、超音波画像62の解剖学的特徴部位65との対応位置が推定できるため、推定MR画像63と対応する位置でCT画像61と超音波画像62との画像位置合わせを行なうことができる。 The display control function 137 causes the processing circuit 13 to perform image registration processing between the CT image 61 and the ultrasound image 62 based on the anatomical features 64, 65, and 66, and generate a display image 67. As shown in FIG. 6, in the image registration, an anatomical feature corresponding to the anatomical feature 65 of the blood vessel extracted in the ultrasound image 62 is not extracted from the CT image 61. However, the corresponding position of the anatomical feature 65 of the ultrasound image 62 can be estimated using the anatomical feature 66 of the blood vessel extracted in the estimated MR image 63 as a clue, so that image registration between the CT image 61 and the ultrasound image 62 can be performed at a position corresponding to the estimated MR image 63.

以上に示した第2の実施形態によれば、元画像の特徴部位だけでは画像位置合わせが難しい場合でも、変換画像を生成し、変換画像から特徴部位を抽出することで、画像位置合わせを行なうことができる。例えば、CT画像では確認できないがMR画像からは確認できる特徴部位に基づいて、CT画像と超音波画像との画像位置合わせを行なうことができ、フュージョン処理を実現できる。 According to the second embodiment described above, even if image registration is difficult using only the characteristic parts of the original image, it is possible to perform image registration by generating a converted image and extracting the characteristic parts from the converted image. For example, image registration between a CT image and an ultrasound image can be performed based on characteristic parts that cannot be confirmed in a CT image but can be confirmed in an MR image, thereby realizing fusion processing.

(第3の実施形態)
第3の実施形態では、抽出された解剖学的特徴部位に基づいて、次の検査において取得すべき参照画像および元画像上に参照画像を取得可能な位置を含む撮影条件を示すガイド画像を表示する点が上述の実施形態とは異なる。例えば、CT画像から腫瘍のような病変が確認できた場合、病変に係る特徴部位から、超音波検査により取得すべき断面の超音波画像を参照画像およびガイド画像として表示できる。
第3の実施形態に係る医用画像処理装置の構成は、図1に示す医用画像処理装置の構成と同様であるため、説明を省略する。
Third Embodiment
The third embodiment differs from the above-mentioned embodiments in that a reference image to be acquired in the next examination and a guide image indicating imaging conditions including a position where the reference image can be acquired on the original image are displayed based on the extracted anatomical characteristic site. For example, when a lesion such as a tumor is confirmed from a CT image, an ultrasound image of a cross section to be acquired by an ultrasound examination can be displayed as a reference image and a guide image from the characteristic site related to the lesion.
The configuration of the medical image processing apparatus according to the third embodiment is similar to the configuration of the medical image processing apparatus shown in FIG. 1, and therefore a description thereof will be omitted.

第3の実施形態に係る医用画像処理装置の動作例について、図7のフローチャートを参照して説明する。ステップS21からステップS23の処理は、図2と同様である。
ステップS71では、表示制御機能137により処理回路13が、抽出した解剖学的特徴部位に基づいて、ガイド画像を表示し、変換画像を参照画像として表示する。
An example of the operation of the medical image processing apparatus according to the third embodiment will be described with reference to the flowchart of Fig. 7. The processes from step S21 to step S23 are similar to those in Fig. 2.
In step S71, the display control function 137 causes the processing circuitry 13 to display a guide image based on the extracted anatomical feature, and displays the converted image as a reference image.

次に、第3の実施形態に係る医用画像処理装置1により生成されるガイド画像の具体例について図8を参照して説明する。
図8は、元画像であるCT画像81と、取得すべき断面の参考となる超音波画像である参照画像82とが並列に表示される。CT画像81には、参照画像82をどのような撮影条件で撮影すべきかを示すガイド画像83が重畳表示される。なお、ガイド画像83は、図8の例では位置および撮影角度を表示する例を示すが、フォーカス位置など他の撮影条件もあわせて表示してもよい。また、超音波検査を促すメッセージ84を表示する。メッセージ84とともに、ボタンをクリックまたはタッチすれば検査オーダ画面に進み、すぐに検査オーダを発行できるようなボタン85を設計してもよい。
Next, a specific example of a guide image generated by the medical image processing apparatus 1 according to the third embodiment will be described with reference to FIG.
In Fig. 8, a CT image 81, which is an original image, and a reference image 82, which is an ultrasound image serving as a reference for the cross section to be acquired, are displayed in parallel. A guide image 83, which indicates the imaging conditions under which the reference image 82 should be captured, is superimposed on the CT image 81. Note that, although the guide image 83 in Fig. 8 shows an example in which the position and imaging angle are displayed, other imaging conditions such as the focus position may also be displayed. A message 84 encouraging an ultrasound examination is also displayed. Along with the message 84, a button 85 may be designed so that clicking or touching the button will take the user to an examination order screen and an examination order can be issued immediately.

図8の例では、CT画像81を元画像として、腫瘍が特徴部位として抽出されたとする。抽出された特徴部位を超音波検査で検査したい場合、超音波画像であれば特徴部位がどのように描出されるかを表示するため、画像処理機能133および表示制御機能137により処理回路13が、CT画像81を超音波画像に変換した変換画像を参照画像82として表示すればよい。また、抽出された特徴部位を用いることで、CT画像81と参照画像82との腫瘍の位置の対応関係が分かるため、参照画像82はどのような位置で撮影すればよいかをCT画像81上にガイド画像83として表示できる。なお、図8の例では、ガイド画像83は外枠のみの表示であるが、参照画像82をCT画像81に重畳表示してもよい。 In the example of FIG. 8, the CT image 81 is used as the original image, and a tumor is extracted as a characteristic part. When the extracted characteristic part is to be examined by ultrasound examination, the processing circuit 13 converts the CT image 81 into an ultrasound image and displays the converted image as the reference image 82 by the image processing function 133 and the display control function 137 in order to display how the characteristic part would be depicted in an ultrasound image. In addition, by using the extracted characteristic part, the correspondence relationship between the positions of the tumor in the CT image 81 and the reference image 82 can be known, and therefore the position at which the reference image 82 should be photographed can be displayed as a guide image 83 on the CT image 81. Note that in the example of FIG. 8, the guide image 83 is displayed only as an outer frame, but the reference image 82 may be displayed superimposed on the CT image 81.

また、参照画像82として、変換画像と共に、または変換画像に変えて、診断に用いるために理想的な超音波画像を表示してもよい。例えば、腫瘍が悪性であれば、腫瘍と栄養血管との関係が、超音波検査によるカラードプラ画像またはパワードプラ画像、エラストグラフィー画像などにより判明しやすいと考えられる。よって、理想的な超音波画像の例を参照画像82として表示することでユーザが容易に理想的な超音波画像を取得しやすくなる。
なお、参照画像82およびガイド画像83は、どちらか一方が表示される形式でもよい。
In addition, an ideal ultrasound image for use in diagnosis may be displayed together with or instead of the converted image as the reference image 82. For example, if a tumor is malignant, it is considered that the relationship between the tumor and the nutrient blood vessels is easily clarified by a color Doppler image or a power Doppler image, an elastography image, or the like obtained by an ultrasound examination. Therefore, by displaying an example of an ideal ultrasound image as the reference image 82, the user can easily obtain an ideal ultrasound image.
It should be noted that the reference image 82 and the guide image 83 may be displayed in a format in which either one of them is displayed.

以上に示した第3の実施形態によれば、参照画像およびガイド画像の少なくとも一方を元画像と共に表示することで、診断に必要な画像の取得を促し、理想的な画像の取得および診断を支援することができる。 According to the third embodiment described above, by displaying at least one of the reference image and the guide image together with the original image, it is possible to encourage the acquisition of images necessary for diagnosis and to assist in the acquisition of ideal images and diagnosis.

(第4の実施形態)
第4の実施形態に係る医用画像診断装置について図9のブロック図を参照して説明する。第4の実施形態では、医用画像診断装置としてX線CT装置を例に説明するが、どのような種類の医用画像診断装置であってもよい。例えば、X線CT装置の他には、MRI装置、PET装置、SPECT装置またはこれらを組み合せた装置などでもよい。
Fourth Embodiment
A medical image diagnostic apparatus according to the fourth embodiment will be described with reference to the block diagram of Fig. 9. In the fourth embodiment, an X-ray CT apparatus will be described as an example of the medical image diagnostic apparatus, but any type of medical image diagnostic apparatus may be used. For example, in addition to an X-ray CT apparatus, an MRI apparatus, a PET apparatus, a SPECT apparatus, or a combination of these may be used.

図9に示すX線CT装置2は、架台装置20と、寝台装置300と、X線CT装置の処理を実現するコンソール装置40とを有する。図9では説明の都合上、架台装置20を複数描画している。 The X-ray CT device 2 shown in FIG. 9 has a gantry device 20, a bed device 300, and a console device 40 that realizes the processing of the X-ray CT device. For the sake of explanation, multiple gantry devices 20 are drawn in FIG. 9.

なお、本実施形態では、非チルト状態での回転フレーム23の回転軸または寝台装置300の天板330の長手方向をZ軸方向、Z軸方向に直交し、床面に対し水平である軸方向をX軸方向、Z軸方向に直交し、床面に対し垂直である軸方向をY軸方向とそれぞれ定義するものとする。
例えば、架台装置20および寝台装置300はCT検査室に設置され、コンソール装置40はCT検査室に隣接する制御室に設置される。なお、コンソール装置40は、必ずしも制御室に設置されなくてもよい。例えば、コンソール装置40は、架台装置20および寝台装置300とともに同一の部屋に設置されてもよい。いずれにしても架台装置20と、寝台装置300と、コンソール装置40とは互いに通信可能に有線または無線で接続されている。
In this embodiment, the rotation axis of the rotating frame 23 in the non-tilted state or the longitudinal direction of the table top 330 of the bed device 300 is defined as the Z-axis direction, the axial direction perpendicular to the Z-axis direction and horizontal to the floor surface is defined as the X-axis direction, and the axial direction perpendicular to the Z-axis direction and perpendicular to the floor surface is defined as the Y-axis direction.
For example, the gantry device 20 and the bed device 300 are installed in a CT examination room, and the console device 40 is installed in a control room adjacent to the CT examination room. Note that the console device 40 does not necessarily have to be installed in the control room. For example, the console device 40 may be installed in the same room as the gantry device 20 and the bed device 300. In any case, the gantry device 20, the bed device 300, and the console device 40 are connected to each other by wire or wirelessly so as to be able to communicate with each other.

架台装置20は、被検体PをX線CT撮影するための構成を有するスキャン装置である。架台装置20は、X線管21と、X線検出器22と、回転フレーム23と、X線高電圧装置24と、制御装置25と、ウェッジ26と、コリメータ27と、データ収集装置28(以下、DAS(Data Acquisition System)28ともいう)とを含む。X線管21と、X線検出器22と、DAS28をまとめて、医用画像(ここではCT画像)を取得する撮影部ともいう。 The gantry device 20 is a scanning device configured to perform X-ray CT imaging of the subject P. The gantry device 20 includes an X-ray tube 21, an X-ray detector 22, a rotating frame 23, an X-ray high voltage device 24, a control device 25, a wedge 26, a collimator 27, and a data acquisition device 28 (hereinafter also referred to as DAS (Data Acquisition System) 28). The X-ray tube 21, the X-ray detector 22, and the DAS 28 are collectively referred to as an imaging unit that acquires medical images (here, CT images).

X線管21は、X線高電圧装置24からの高電圧の印加およびフィラメント電流の供給により、陰極(フィラメント)から陽極(ターゲット)に向けて熱電子を照射することでX線を発生する真空管である。具体的には、熱電子がターゲットに衝突することによりX線が発生される。例えば、X線管21には回転する陽極に熱電子を照射することでX線を発生させる回転陽極型のX線管がある。X線管21で発生したX線は、例えばコリメータ27を介してコーンビーム形に成形され、被検体Pに照射される。 The X-ray tube 21 is a vacuum tube that generates X-rays by irradiating thermoelectrons from a cathode (filament) to an anode (target) through the application of high voltage from the X-ray high voltage device 24 and the supply of filament current. Specifically, X-rays are generated when the thermoelectrons collide with the target. For example, the X-ray tube 21 is a rotating anode type X-ray tube that generates X-rays by irradiating a rotating anode with thermoelectrons. The X-rays generated by the X-ray tube 21 are shaped into a cone beam, for example, via a collimator 27, and irradiated to the subject P.

X線検出器22は、本実施形態では、いわゆるフォトンカウンティング型検出器の場合と、一般的なX線検出器、いわゆる積分型の検出器の場合とのそれぞれについて説明する。 In this embodiment, the X-ray detector 22 will be described in terms of both a so-called photon counting type detector and a general X-ray detector, a so-called integral type detector.

X線検出器22が、フォトンカウンティング型検出器である場合、X線管21から照射され、被検体Pを通過したX線を光子単位で検出する。X線検出器22は、例えば、X線管21の焦点を中心として1つの円弧に沿ってチャネル方向に複数のX線検出素子が配列された複数のX線検出素子列を有する。X線検出器22は、例えば、チャネル方向に複数のX線検出素子が配列されたX線検出素子列がスライス方向(列方向、row方向)に複数配列された列構造を有する。 When the X-ray detector 22 is a photon-counting detector, it detects the X-rays emitted from the X-ray tube 21 and passing through the subject P in photon units. The X-ray detector 22 has, for example, multiple X-ray detection element rows in which multiple X-ray detection elements are arranged in the channel direction along one arc centered on the focal point of the X-ray tube 21. The X-ray detector 22 has, for example, a row structure in which multiple X-ray detection element rows in which multiple X-ray detection elements are arranged in the channel direction are arranged in the slice direction (row direction).

X線検出器22は、具体的には、例えば、シンチレータアレイと、グリッドと、光センサアレイとを有する間接変換型の検出器である。X線検出器22は、検出部の一例である。 The X-ray detector 22 is specifically an indirect conversion type detector having, for example, a scintillator array, a grid, and a photosensor array. The X-ray detector 22 is an example of a detection unit.

シンチレータアレイは、複数のシンチレータを有する。シンチレータは、入射X線を、当該入射X線の強度に応じた個数の光子に変換する。 The scintillator array has multiple scintillators. The scintillators convert incident X-rays into a number of photons that correspond to the intensity of the incident X-rays.

グリッドは、シンチレータアレイのX線入射側の面に配置され、散乱X線を吸収する機能を有するX線遮蔽板を有する。なお、グリッドはコリメータ(1次元コリメータまたは2次元コリメータ)と呼ばれる場合もある。 The grid is placed on the X-ray incident surface of the scintillator array and has an X-ray shielding plate that has the function of absorbing scattered X-rays. Note that the grid is sometimes called a collimator (one-dimensional collimator or two-dimensional collimator).

光センサアレイは、シンチレータから受けた光を増幅して電気信号に変換し、当該入射X線のエネルギーに応じた波高値を有する出力信号(エネルギー信号)を生成する機能を有し、例えば、光電子増倍管(フォトマルチプライヤー:PMT)等の光センサを有する。生成されたエネルギー信号はDAS28に出力される。 The optical sensor array has a function of amplifying the light received from the scintillator, converting it into an electrical signal, and generating an output signal (energy signal) having a peak value according to the energy of the incident X-rays, and has an optical sensor such as a photomultiplier tube (PMT). The generated energy signal is output to the DAS 28.

一方、X線検出器22が、積分型の検出器である場合、X線管21から照射され、被検体Pを通過したX線を検出し、当該X線量に対応した電気信号をDAS28へと出力する。シンチレータアレイは、複数のシンチレータを有する。シンチレータは、入射X線を、当該入射X線に応じた光子量の光を出力するシンチレータ結晶を有する。光センサアレイは、シンチレータからの受けた光を増幅して電気信号に変換する機能を有し、例えば、光電子増倍管(フォトマルチプライヤー:PMT)等の光センサを有する。 On the other hand, when the X-ray detector 22 is an integral type detector, it detects the X-rays irradiated from the X-ray tube 21 and passing through the subject P, and outputs an electrical signal corresponding to the amount of X-rays to the DAS 28. The scintillator array has multiple scintillators. The scintillator has scintillator crystals that receive incident X-rays and output light with a photon amount corresponding to the incident X-rays. The photosensor array has a function of amplifying the light received from the scintillator and converting it into an electrical signal, and has a photosensor such as a photomultiplier tube (PMT).

なお、上述のX線検出器22は、間接変換型の検出器を想定しているが、シンチレータアレイおよび光センサアレイの代わりに、入射したX線を電気信号に変換する半導体素子を有する直接変換型の検出器であっても構わない。 The X-ray detector 22 described above is assumed to be an indirect conversion type detector, but instead of the scintillator array and the photosensor array, it may be a direct conversion type detector having a semiconductor element that converts incident X-rays into an electrical signal.

回転フレーム23は、X線発生部(X線管21、ウェッジ26およびコリメータ27)とX線検出器22とを回転軸回りに回転可能に支持する。具体的には、回転フレーム23は、X線管21とX線検出器22とを対向支持し、後述する制御装置25によってX線管21とX線検出器22とを回転させる円環状のフレームである。回転フレーム23は、アルミニウム等の金属により形成された固定フレーム(図示せず)に回転可能に支持される。詳しくは、回転フレーム23は、ベアリングを介して固定フレームの縁部に接続されている。回転フレーム23は、制御装置25の駆動機構からの動力を受けて回転軸Z回りに一定の角速度で回転する。 The rotating frame 23 supports the X-ray generating unit (X-ray tube 21, wedge 26, and collimator 27) and the X-ray detector 22 so that they can rotate around the rotation axis. Specifically, the rotating frame 23 is an annular frame that supports the X-ray tube 21 and the X-ray detector 22 facing each other and rotates the X-ray tube 21 and the X-ray detector 22 using a control device 25 described below. The rotating frame 23 is rotatably supported by a fixed frame (not shown) made of a metal such as aluminum. More specifically, the rotating frame 23 is connected to the edge of the fixed frame via a bearing. The rotating frame 23 receives power from the drive mechanism of the control device 25 and rotates at a constant angular velocity around the rotation axis Z.

なお、回転フレーム23は、X線管21とX線検出器22に加えて、X線高電圧装置24やDAS28を更に備えて支持する。このような回転フレーム23は、撮影空間をなす開口(ボア)19が形成された略円筒形状の筐体に収容されている。開口はFOVに略一致する。開口の中心軸は、回転フレーム23の回転軸Zに一致する。なお、DAS28が生成した撮影データは、例えば発光ダイオード(LED)を有する送信機から光通信によって架台装置の非回転部分(例えば固定フレーム。図9での図示は省略する。)に設けられた、フォトダイオードを有する受信機(図示せず)に送信され、コンソール装置40へと転送される。なお、回転フレームから架台装置の非回転部分への撮影データの送信方法は、前述の光通信に限らず、非接触型のデータ伝送であればいかなる方式を採用しても構わない。 The rotating frame 23 further includes and supports the X-ray high voltage device 24 and the DAS 28 in addition to the X-ray tube 21 and the X-ray detector 22. Such a rotating frame 23 is housed in a substantially cylindrical housing in which an opening (bore) 19 forming an imaging space is formed. The opening substantially coincides with the FOV. The central axis of the opening coincides with the rotation axis Z of the rotating frame 23. The imaging data generated by the DAS 28 is transmitted, for example, from a transmitter having a light-emitting diode (LED) to a receiver (not shown) having a photodiode provided in a non-rotating part of the gantry (for example, a fixed frame. Illustration in FIG. 9 is omitted) by optical communication, and is then transferred to the console device 40. The method of transmitting imaging data from the rotating frame to the non-rotating part of the gantry is not limited to the optical communication described above, and any method of non-contact data transmission may be used.

X線高電圧装置24は、変圧器(トランス)および整流器等の電気回路を有し、X線管21に印加する高電圧およびX線管21に供給するフィラメント電流を発生する機能を有する高電圧発生装置と、X線管21が照射するX線に応じた出力電圧の制御を行なうX線制御装置とを有する。高電圧発生装置は、変圧器方式であってもよいし、インバータ方式であっても構わない。なお、X線高電圧装置24は、後述する回転フレーム23に設けられてもよいし、架台装置20の固定フレーム(図示せず)側に設けられても構わない。 The X-ray high voltage device 24 has electrical circuits such as a transformer and a rectifier, and includes a high voltage generator that has the function of generating the high voltage to be applied to the X-ray tube 21 and the filament current to be supplied to the X-ray tube 21, and an X-ray control device that controls the output voltage according to the X-rays emitted by the X-ray tube 21. The high voltage generator may be of a transformer type or an inverter type. The X-ray high voltage device 24 may be provided on the rotating frame 23 described later, or on the fixed frame (not shown) side of the gantry device 20.

制御装置25は、CPU(Central Processing Unit)等を有する処理回路と、モータおよびアクチュエータ等の駆動機構とを有する。処理回路は、ハードウェア資源として、CPUやMPU(Micro Processing Unit)等のプロセッサとROM(Read Only Memory)やRAM(Random Access Memory)等のメモリとを有する。また、制御装置25は、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)やフィールド・プログラマブル・ゲート・アレイ(Field Programmable Gate Array:FPGA)、他の複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)により実現されてもよい。制御装置25は、コンソール装置40からの指令に従い、X線高電圧装置24およびDAS28等を制御する。前記プロセッサは、前記メモリに保存されたプログラムを読み出して実行することで上記制御を実現する。 The control device 25 has a processing circuit having a CPU (Central Processing Unit) and the like, and a driving mechanism such as a motor and an actuator. The processing circuit has a processor such as a CPU or an MPU (Micro Processing Unit) and a memory such as a ROM (Read Only Memory) or a RAM (Random Access Memory) as hardware resources. The control device 25 may also be realized by an Application Specific Integrated Circuit (ASIC), a Field Programmable Gate Array (FPGA), other Complex Programmable Logic Devices (CPLDs), or Simple Programmable Logic Devices (SPLDs). The control device 25 controls the X-ray high voltage device 24 and the DAS 28, etc., according to commands from the console device 40. The processor realizes the above control by reading and executing programs stored in the memory.

また、制御装置25は、コンソール装置40または架台装置20に取り付けられた、後述する入力インタフェース15からの入力信号を受けて、架台装置20および寝台装置300の動作制御を行なう機能を有する。例えば、制御装置25は、入力信号を受けて回転フレーム23を回転させる制御や、架台装置20をチルトさせる制御、および、寝台装置300および天板330を動作させる制御を行なう。なお、架台装置20をチルトさせる制御は、架台装置20に取り付けられた入力インタフェース15によって入力される傾斜角度(チルト角度)情報により、制御装置25がX軸方向に平行な軸を中心に回転フレーム23を回転させることによって実現される。また、制御装置25は架台装置20に設けられてもよいし、コンソール装置40に設けられても構わない。なお、制御装置25は、メモリにプログラムを保存する代わりに、前記プロセッサの回路内にプログラムを直接組み込むように構成しても構わない。この場合、前記プロセッサは、前記回路内に組み込まれたプログラムを読み出して実行することで上記制御を実現する。 The control device 25 also has a function of controlling the operation of the gantry 20 and the bed 300 upon receiving an input signal from the input interface 15 (described later) attached to the console device 40 or the gantry 20. For example, the control device 25 receives an input signal and controls the rotation of the rotating frame 23, the tilt of the gantry 20, and the operation of the bed 300 and the tabletop 330. The control of tilting the gantry 20 is realized by the control device 25 rotating the rotating frame 23 around an axis parallel to the X-axis direction based on the inclination angle (tilt angle) information input by the input interface 15 attached to the gantry 20. The control device 25 may be provided in the gantry 20 or in the console device 40. The control device 25 may be configured to directly incorporate the program into the circuit of the processor instead of storing the program in the memory. In this case, the processor realizes the above control by reading and executing the program incorporated in the circuit.

ウェッジ26は、X線管21から照射されたX線量を調節するためのフィルタである。具体的には、ウェッジ26は、X線管21から被検体Pへ照射されるX線が、予め定められた分布になるように、X線管21から照射されたX線を透過して減衰するフィルタである。例えば、ウェッジ26(ウェッジフィルタ(wedge filter)、ボウタイフィルタ(bow-tie filter))は、所定のターゲット角度や所定の厚みとなるようにアルミニウムを加工したフィルタである。 The wedge 26 is a filter for adjusting the amount of X-rays irradiated from the X-ray tube 21. Specifically, the wedge 26 is a filter that transmits and attenuates the X-rays irradiated from the X-ray tube 21 so that the X-rays irradiated from the X-ray tube 21 to the subject P have a predetermined distribution. For example, the wedge 26 (wedge filter, bow-tie filter) is a filter made of processed aluminum to have a predetermined target angle and a predetermined thickness.

コリメータ27は、ウェッジ26を透過したX線の照射範囲を絞り込むための鉛板等であり、複数の鉛板等の組み合わせによってスリットを形成する。なお、コリメータ27は、X線絞りと呼ばれる場合もある。 The collimator 27 is a lead plate or the like that narrows the irradiation range of the X-rays that have passed through the wedge 26, and a slit is formed by combining multiple lead plates or the like. The collimator 27 is sometimes called an X-ray aperture.

DAS28は、例えば、撮影データを生成可能な回路素子を搭載したASIC(Application Specific Integrated Circuit)により実現される。DAS28とX線検出器22とは検出器ユニットを構成する。 The DAS 28 is realized, for example, by an ASIC (Application Specific Integrated Circuit) equipped with circuit elements capable of generating imaging data. The DAS 28 and the X-ray detector 22 constitute a detector unit.

DAS28は、X線検出器22がフォトンカウンティング型検出器である場合、X線検出器22により検出されたX線のカウントを示すデジタルデータ(以下、スペクトルデータともいう)を、複数のエネルギー帯域(以下、エネルギー・ビン、または単にビンともいう)ごとに生成する。スペクトルデータは、生成元の検出素子のチャンネル番号、列番号、収集されたビュー(投影角度ともいう)を示すビュー番号およびエネルギー・ビン番号により識別されたカウント値のデータのセットである。スペクトルデータは、コンソール装置40へと転送される。 When the X-ray detector 22 is a photon-counting detector, the DAS 28 generates digital data (hereinafter also referred to as spectrum data) indicating the count of X-rays detected by the X-ray detector 22 for each of a number of energy bands (hereinafter also referred to as energy bins or simply bins). The spectrum data is a set of count value data identified by the channel number of the detector element from which it was generated, the row number, the view number indicating the collected view (also referred to as the projection angle), and the energy bin number. The spectrum data is transferred to the console device 40.

一方、X線検出器22が積分型検出器である場合、DAS28は、X線検出器22から電気信号を読み出し、読み出した電気信号に基づいて、X線検出器22により検出されたX線の線量に関するデジタルデータである投影データを生成する。投影データは、生成元のX線検出素子のチャンネル番号、列番号、投影角度を示すビュー番号および検出されたX線の線量の積分値を示すデータのセットである。 On the other hand, if the X-ray detector 22 is an integral detector, the DAS 28 reads out an electrical signal from the X-ray detector 22 and generates projection data, which is digital data relating to the X-ray dose detected by the X-ray detector 22, based on the read out electrical signal. The projection data is a set of data indicating the channel number, row number, and view number indicating the projection angle of the X-ray detection element from which the projection data was generated, and the integral value of the detected X-ray dose.

例えば、X線検出器22が積分型検出器である場合、DAS28は、検出素子各々について前置増幅器、可変増幅器、積分回路およびA/D変換器を含む。前置増幅器は、接続元の検出素子からの電気信号を所定のゲインで増幅する。可変増幅器は、前置増幅器からの電気信号を可変のゲインで増幅する。積分回路は、前置増幅器からの電気信号を、1ビュー期間に亘り積分して積分信号を生成する。積分信号の波高値は、1ビュー期間に亘り接続元の検出素子により検出されたX線の線量値に対応する。A/D変換器は、積分回路からの積分信号をアナログデジタル変換して投影データを生成する。以下、スペクトルデータと投影データとを区別しない場合、撮影データと呼ぶ。 For example, when the X-ray detector 22 is an integral detector, the DAS 28 includes a preamplifier, a variable amplifier, an integration circuit, and an A/D converter for each detection element. The preamplifier amplifies the electrical signal from the connected detection element with a predetermined gain. The variable amplifier amplifies the electrical signal from the preamplifier with a variable gain. The integration circuit integrates the electrical signal from the preamplifier over one view period to generate an integrated signal. The peak value of the integrated signal corresponds to the X-ray dose value detected by the connected detection element over one view period. The A/D converter performs analog-to-digital conversion of the integrated signal from the integration circuit to generate projection data. Hereinafter, when there is no distinction between spectrum data and projection data, they are referred to as imaging data.

寝台装置300は、スキャン対象の被検体Pを載置、移動させる装置であり、基台310と、寝台駆動装置320と、天板330と、支持フレーム340とを備えている。
基台310は、支持フレーム340を鉛直方向に移動可能に支持する筐体である。
寝台駆動装置320は、被検体Pが載置された天板330を天板330の長軸方向に移動するモータまたはアクチュエータである。寝台駆動装置320は、コンソール装置40による制御、または制御装置25による制御に従い、天板330を移動する。例えば、寝台駆動装置320は、天板330に載置された被検体Pの体軸が回転フレーム23の開口の中心軸に一致するよう、天板330を被検体Pに対して直交方向に移動する。また、寝台駆動装置320は、架台装置20を用いて実行されるX線CT撮影に応じて、天板330を被検体Pの体軸方向に沿って移動してもよい。寝台駆動装置320は、制御装置25からの駆動信号のデューティ比等に応じた回転速度で駆動することにより動力を発生する。寝台駆動装置320は、例えば、ダイレクトドライブモータやサーボモータ等のモータにより実現される。
The bed device 300 is a device on which a subject P to be scanned is placed and moved, and includes a base 310 , a bed driving device 320 , a top board 330 , and a support frame 340 .
The base 310 is a housing that supports the support frame 340 so that the support frame 340 can move in the vertical direction.
The bed driving device 320 is a motor or actuator that moves the tabletop 330 on which the subject P is placed in the longitudinal direction of the tabletop 330. The bed driving device 320 moves the tabletop 330 under the control of the console device 40 or the control of the control device 25. For example, the bed driving device 320 moves the tabletop 330 in a direction perpendicular to the subject P so that the body axis of the subject P placed on the tabletop 330 coincides with the central axis of the opening of the rotating frame 23. The bed driving device 320 may also move the tabletop 330 along the body axis direction of the subject P in accordance with the X-ray CT imaging performed using the gantry device 20. The bed driving device 320 generates power by driving at a rotation speed according to the duty ratio of a drive signal from the control device 25. The bed driving device 320 is realized by a motor such as a direct drive motor or a servo motor.

支持フレーム340の上面に設けられた天板330は、被検体Pが載置される板である。なお、寝台駆動装置320は、天板330に加え、支持フレーム340を天板330の長軸方向に移動してもよい。 The top plate 330 provided on the upper surface of the support frame 340 is a plate on which the subject P is placed. The bed driving device 320 may move the support frame 340 in the longitudinal direction of the top plate 330 in addition to the top plate 330.

コンソール装置40は、メモリ11と、ディスプレイ401と、入力インタフェース15と、処理回路13とを有する。メモリ11と、ディスプレイ401と、入力インタフェース15と、処理回路13との間のデータ通信は、バス(BUS)を介して行なわれる。なお、コンソール装置40は架台装置20とは別体として説明するが、架台装置20にコンソール装置40またはコンソール装置40の各構成要素の一部が含まれてもよい。 The console device 40 has a memory 11, a display 401, an input interface 15, and a processing circuit 13. Data communication between the memory 11, the display 401, the input interface 15, and the processing circuit 13 is performed via a bus. Note that although the console device 40 is described as being separate from the gantry device 20, the gantry device 20 may include the console device 40 or some of the components of the console device 40.

メモリ11は、第1の実施形態と同様であり、種々の情報を記憶するHDDやSSD、集積回路記憶装置等の記憶装置である。メモリ11は、例えば、撮影データや再構成画像データを記憶する。 The memory 11 is the same as in the first embodiment and is a storage device such as an HDD, SSD, or integrated circuit storage device that stores various information. The memory 11 stores, for example, imaging data and reconstructed image data.

ディスプレイ401は、各種の情報を表示する。例えば、ディスプレイ401は、処理回路13によって生成された医用画像(CT画像)や、操作者からの各種操作を受け付けるためのGUI(Graphical User Interface)等を出力する。例えば、ディスプレイ401としては、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)、CRT(Cathode Ray Tube)ディスプレイ、有機ELディスプレイ(OELD:Organic Electro Luminescence Display)、プラズマディスプレイまたは他の任意のディスプレイが、適宜、使用可能となっている。また、ディスプレイ401は、架台装置20に設けられてもよい。また、ディスプレイ401は、デスクトップ型でもよいし、コンソール装置40本体と無線通信可能なタブレット端末などで構成されても構わない。 The display 401 displays various information. For example, the display 401 outputs medical images (CT images) generated by the processing circuit 13, a GUI (Graphical User Interface) for receiving various operations from the operator, and the like. For example, the display 401 may be a liquid crystal display (LCD), a cathode ray tube (CRT) display, an organic electroluminescence display (OELD), a plasma display, or any other display, as appropriate. The display 401 may also be provided on the pedestal device 20. The display 401 may also be a desktop type, or may be configured as a tablet terminal capable of wireless communication with the console device 40 main body.

入力インタフェース15は、第1の実施形態と同様であり、操作者からの各種の入力操作を受け付け、受け付けた入力操作を電気信号に変換して処理回路13に出力する。例えば、入力インタフェース15は、撮影データを収集する際の収集条件や、CT画像を再構成する際の再構成条件、CT画像から後処理画像を生成する際の画像処理条件等を操作者から受け付ける。 The input interface 15 is similar to that in the first embodiment, and accepts various input operations from the operator, converts the accepted input operations into electrical signals, and outputs the electrical signals to the processing circuit 13. For example, the input interface 15 accepts from the operator the acquisition conditions for acquiring imaging data, the reconstruction conditions for reconstructing CT images, the image processing conditions for generating post-processed images from CT images, and the like.

処理回路13は、入力インタフェース15から出力される入力操作の電気信号に応じてX線CT装置2全体の動作を制御する。例えば、処理回路13は、ハードウェア資源として、CPUやMPU、GPU等のプロセッサとROMやRAM等のメモリとを有する。処理回路13は、メモリに展開されたプログラムを実行するプロセッサにより、取得機能131、画像処理機能133、抽出機能135、表示制御機能137およびシステム制御機能139を実行する。なお、取得機能131、画像処理機能133、抽出機能135および表示制御機能137は、第1の実施形態に係る医用画像処理装置1と同様の処理を行う。 The processing circuitry 13 controls the operation of the entire X-ray CT device 2 in response to electrical signals of input operations output from the input interface 15. For example, the processing circuitry 13 has a processor such as a CPU, MPU, or GPU, and a memory such as a ROM or RAM, as hardware resources. The processing circuitry 13 executes an acquisition function 131, an image processing function 133, an extraction function 135, a display control function 137, and a system control function 139 by a processor that executes a program deployed in the memory. The acquisition function 131, the image processing function 133, the extraction function 135, and the display control function 137 perform the same processing as the medical image processing device 1 according to the first embodiment.

システム制御機能139は、入力インタフェース15を介して操作者から受け付けた入力操作に基づいて、処理回路13の各機能を制御する。具体的には、システム制御機能139は、メモリ11に記憶されている制御プログラムを読み出して処理回路13内のメモリ上に展開し、展開された制御プログラムに従ってX線CT装置2の各部を制御する。例えば、処理回路13は、入力インタフェース15を介して操作者から受け付けた入力操作に基づいて、処理回路13の各機能を制御し、スキャン範囲、撮影条件等を決定するための被検体Pの位置決めスキャン(スキャノ撮影ともいう)、および本スキャンを実行する。
なお、コンソール装置40は、単一のコンソールにて複数の機能を実行するものとして説明したが、複数の機能を別々のコンソールが実行することにしても構わない。
以上に示した第4の実施形態によれば、医用画像診断装置が第1の実施形態に係る医用画像処理装置と同様の構成を含むことで、当該医用画像診断装置が撮影した医用画像に基づいて変換画像を生成し、変換画像から特徴部位を抽出できる。これにより、医用画像からより多くの情報を取得できる。
The system control function 139 controls each function of the processing circuitry 13 based on an input operation received from an operator via the input interface 15. Specifically, the system control function 139 reads out a control program stored in the memory 11, expands it on the memory in the processing circuitry 13, and controls each part of the X-ray CT apparatus 2 according to the expanded control program. For example, the processing circuitry 13 controls each function of the processing circuitry 13 based on an input operation received from the operator via the input interface 15, and executes a positioning scan (also called scanography) of the subject P for determining a scan range, imaging conditions, etc., and a main scan.
Although the console device 40 has been described as a single console that executes multiple functions, multiple functions may be executed by separate consoles.
According to the fourth embodiment described above, since the medical image diagnostic device includes the same configuration as the medical image processing device according to the first embodiment, it is possible to generate a converted image based on a medical image captured by the medical image diagnostic device and extract characteristic parts from the converted image, thereby obtaining more information from the medical image.

なお、上述した実施形態に係る各機能は、当該処理を実行するプログラムをワークステーション等のコンピュータにインストールし、これらをメモリ上で展開することによっても実現することができる。このとき、コンピュータに当該手法を実行させることのできるプログラムは、磁気ディスク(ハードディスクなど)、光ディスク(CD-ROM、DVD、Blu-ray(登録商標)ディスクなど)、半導体メモリなどの記憶媒体に格納して頒布することも可能である。 The functions according to the above-described embodiments can also be realized by installing a program that executes the relevant process in a computer such as a workstation and expanding the program in memory. In this case, the program that can cause the computer to execute the relevant method can also be stored and distributed on a storage medium such as a magnetic disk (such as a hard disk), an optical disk (such as a CD-ROM, DVD, Blu-ray (registered trademark) disk), or a semiconductor memory.

上述した実施形態の少なくとも1つの実施形態によれば、医用画像からより多くの情報を取得できる。 At least one of the above-described embodiments allows more information to be obtained from medical images.

いくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although several embodiments have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, substitutions, and modifications can be made without departing from the gist of the invention. These embodiments and their modifications are within the scope of the invention and its equivalents as set forth in the claims, as well as the scope and gist of the invention.

1 医用画像処理装置
11 メモリ
13 処理回路
15 入力インタフェース
17 通信インタフェース
19 開口
20 架台装置
21 X線管
22 X線検出器
23 回転フレーム
24 X線高電圧装置
25 制御装置
26 ウェッジ
27 コリメータ
28 データ収集装置
31,61,81 CT画像
32,63 推定MR画像
33,34,64,65,66 解剖学的特徴部位
35 表示画像
40 コンソール装置
41 非造影画像
42 推定造影画像
45,67 表示画像
62 超音波画像
82 参照画像
83 ガイド画像
84 メッセージ
85 ボタン
131 取得機能
133 画像処理機能
135 抽出機能
137 表示制御機能
139 システム制御機能
300 寝台装置
310 基台
320 寝台駆動装置
330 天板
340 支持フレーム
401 ディスプレイ
LIST OF SYMBOLS 1 Medical image processing device 11 Memory 13 Processing circuit 15 Input interface 17 Communication interface 19 Opening 20 Stand device 21 X-ray tube 22 X-ray detector 23 Rotating frame 24 X-ray high voltage device 25 Control device 26 Wedge 27 Collimator 28 Data acquisition device 31, 61, 81 CT image 32, 63 Estimated MR image 33, 34, 64, 65, 66 Anatomical feature 35 Display image 40 Console device 41 Non-contrast image 42 Estimated contrast image 45, 67 Display image 62 Ultrasound image 82 Reference image 83 Guide image 84 Message 85 Button 131 Acquisition function 133 Image processing function 135 Extraction function 137 Display control function 139 System control function 300 Bed device 310 Base 320 Bed drive device 330 Top plate 340 Support frame 401 Display

Claims (9)

元画像を取得する取得部と、
前記元画像に対して画像処理を実行し、前記元画像からは認識困難であるが被検体には存在している特徴を含む変換画像を生成する画像処理部と、
前記元画像および前記変換画像から特徴部位を抽出する抽出部と、
前記元画像および前記変換画像の少なくとも一方に前記特徴部位に関する情報を表示する表示制御部と、
を具備し、
前記画像処理は、前記元画像とは撮像原理が異なる医用画像への変換処理を除
前記表示制御部は、前記変換画像を次の検査において取得すべき参照画像として表示し、かつ、前記抽出された特徴部位に基づいて、前記元画像に前記参照画像を取得可能な位置を含む撮影条件を示すガイド画像を重畳表示する、
医用画像処理装置。
An acquisition unit for acquiring an original image;
an image processing unit that performs image processing on the original image to generate a converted image including features that are difficult to recognize from the original image but are present in the subject;
an extraction unit that extracts feature portions from the original image and the converted image;
a display control unit that displays information about the characteristic portion in at least one of the original image and the converted image;
Equipped with
The image processing, excluding a conversion process to a medical image having a different imaging principle from that of the original image,
the display control unit displays the converted image as a reference image to be acquired in a next examination, and superimposes a guide image indicating an imaging condition including a position at which the reference image can be acquired on the original image based on the extracted characteristic portion.
Medical imaging equipment.
前記表示制御部は、前記特徴部位に関する情報を前記元画像および前記変換画像の少なくとも一方に重畳表示する、
請求項に記載の医用画像処理装置。
the display control unit displays information about the characteristic portion in a superimposed manner on at least one of the original image and the converted image.
The medical image processing device according to claim 1 .
前記抽出部は、前記特徴部位として解剖学的特徴部位および病変部位の少なくとも一方を抽出する、
請求項に記載の医用画像処理装置。
The extraction unit extracts at least one of an anatomical feature and a lesion as the feature.
The medical image processing device according to claim 2 .
前記元画像は、第1の医用画像診断装置を用いて被検体を撮影して得られた画像であり、
前記変換画像は、前記第1の医用画像診断装置とは異なる第2の医用画像診断装置を用いて前記被検体を撮影した場合を想定した推定画像である、
請求項1から請求項のいずれか1項に記載の医用画像処理装置。
the original image is an image obtained by imaging a subject using a first medical image diagnostic apparatus,
the converted image is an estimated image assuming a case where the subject is imaged using a second medical image diagnostic apparatus different from the first medical image diagnostic apparatus;
The medical image processing device according to claim 1 .
前記元画像は、第1の撮影条件で撮影された画像であり、
前記変換画像は、前記第1の撮影条件とは異なる第2の撮影条件で撮影された場合を想定した推定画像である、
請求項1から請求項のいずれか1項に記載の医用画像処理装置。
the original image is an image captured under a first shooting condition,
The converted image is an estimated image assuming a case where the converted image is photographed under a second photographing condition different from the first photographing condition.
The medical image processing device according to claim 1 .
前記元画像は、非造影画像であり、
前記変換画像は、造影画像を想定した推定画像である、
請求項に記載の医用画像処理装置。
The original image is a non-contrast image,
The transformed image is an estimated image assuming a contrast image.
The medical image processing device according to claim 5 .
前記取得部は、前記元画像に対して画像位置合わせを行う対象となる対象画像をさらに取得し、
前記表示制御部は、前記変換画像から抽出された前記特徴部位を手がかりとして、前記元画像と前記対象画像との画像位置合わせを行なう、
請求項から請求項のいずれか1項に記載の医用画像処理装置。
The acquisition unit further acquires a target image that is to be subjected to image registration with respect to the original image,
The display control unit performs image registration between the original image and the target image using the characteristic portion extracted from the converted image as a clue.
The medical image processing device according to claim 1 .
元画像を撮影する撮影部と、
前記元画像に対して画像処理を実行し、前記元画像からは認識困難であるが被検体には存在している特徴を含む変換画像を生成する画像処理部と、
前記元画像および前記変換画像から特徴部位を抽出する抽出部と、
前記元画像および前記変換画像の少なくとも一方に前記特徴部位に関する情報を表示する表示制御部と、
を具備し、
前記画像処理は、前記元画像とは撮像原理が異なる医用画像への変換処理を除
前記表示制御部は、前記変換画像を次の検査において取得すべき参照画像として表示し、かつ、前記抽出された特徴部位に基づいて、前記元画像に前記参照画像を取得可能な位置を含む撮影条件を示すガイド画像を重畳表示する、
医用画像診断装置。
A photographing unit that photographs an original image;
an image processing unit that performs image processing on the original image to generate a converted image including features that are difficult to recognize from the original image but are present in the subject;
an extraction unit that extracts feature portions from the original image and the converted image;
a display control unit that displays information about the characteristic portion in at least one of the original image and the converted image;
Equipped with
The image processing, excluding a conversion process to a medical image having a different imaging principle from that of the original image,
the display control unit displays the converted image as a reference image to be acquired in a next examination, and superimposes a guide image indicating an imaging condition including a position at which the reference image can be acquired on the original image based on the extracted characteristic portion.
Medical imaging diagnostic equipment.
コンピュータに、
元画像を取得する取得機能と、
前記元画像に対して画像処理を実行し、前記元画像からは認識困難であるが被検体には存在している特徴を含む変換画像を生成する画像処理機能と、
前記元画像および前記変換画像から特徴部位を抽出する抽出機能と、
前記元画像および前記変換画像の少なくとも一方に前記特徴部位に関する情報を表示する表示制御機能と、
を実現させるための医用画像処理プログラムであって、
前記画像処理は、前記元画像とは撮像原理が異なる医用画像への変換処理を除
前記表示制御機能は、前記変換画像を次の検査において取得すべき参照画像として表示し、かつ、前記抽出された特徴部位に基づいて、前記元画像に前記参照画像を取得可能な位置を含む撮影条件を示すガイド画像を重畳表示する、
医用画像処理プログラム。
On the computer,
An acquisition function to acquire the original image;
an image processing function that performs image processing on the original image to generate a transformed image that includes features that are difficult to recognize from the original image but are present in the subject;
an extraction function for extracting feature portions from the original image and the converted image;
a display control function for displaying information about the characteristic portion in at least one of the original image and the converted image;
A medical image processing program for realizing the above,
The image processing, excluding a conversion process to a medical image having a different imaging principle from that of the original image,
the display control function displays the converted image as a reference image to be acquired in a next examination, and superimposes a guide image indicating an imaging condition including a position where the reference image can be acquired on the original image based on the extracted characteristic portion.
A medical image processing program.
JP2019221489A 2019-12-06 2019-12-06 Medical image processing device, medical image diagnostic device, and medical image processing program Active JP7483361B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019221489A JP7483361B2 (en) 2019-12-06 2019-12-06 Medical image processing device, medical image diagnostic device, and medical image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019221489A JP7483361B2 (en) 2019-12-06 2019-12-06 Medical image processing device, medical image diagnostic device, and medical image processing program

Publications (2)

Publication Number Publication Date
JP2021090495A JP2021090495A (en) 2021-06-17
JP7483361B2 true JP7483361B2 (en) 2024-05-15

Family

ID=76311049

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019221489A Active JP7483361B2 (en) 2019-12-06 2019-12-06 Medical image processing device, medical image diagnostic device, and medical image processing program

Country Status (1)

Country Link
JP (1) JP7483361B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2023195098A1 (en) * 2022-04-06 2023-10-12
JP2024114382A (en) * 2023-02-13 2024-08-23 株式会社東京精密 Groove shape measuring method, groove shape measuring device, processing device control method, and processing device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018505705A (en) 2014-12-10 2018-03-01 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. System and method for transforming medical imaging using machine learning
US20180350066A1 (en) 2017-05-30 2018-12-06 Abbyy Development Llc Computed tomography image processing and data analysis
US20190340800A1 (en) 2018-05-02 2019-11-07 Covidien Lp System and method for constructing virtual radial ultrasound images from ct data and performing a surgical navigation procedure using virtual ultrasound images
JP2019534763A (en) 2016-09-06 2019-12-05 エレクタ、インク.Elekta, Inc. Neural network for generating synthetic medical images
JP2020054579A (en) 2018-10-01 2020-04-09 富士フイルム株式会社 Disease region extraction device, method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018505705A (en) 2014-12-10 2018-03-01 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. System and method for transforming medical imaging using machine learning
JP2019534763A (en) 2016-09-06 2019-12-05 エレクタ、インク.Elekta, Inc. Neural network for generating synthetic medical images
US20180350066A1 (en) 2017-05-30 2018-12-06 Abbyy Development Llc Computed tomography image processing and data analysis
US20190340800A1 (en) 2018-05-02 2019-11-07 Covidien Lp System and method for constructing virtual radial ultrasound images from ct data and performing a surgical navigation procedure using virtual ultrasound images
JP2020054579A (en) 2018-10-01 2020-04-09 富士フイルム株式会社 Disease region extraction device, method, and program

Also Published As

Publication number Publication date
JP2021090495A (en) 2021-06-17

Similar Documents

Publication Publication Date Title
US9237874B2 (en) Method and system for non-invasive imaging of a target region
JP7341803B2 (en) X-ray CT equipment, medical image processing equipment, and X-ray CT systems
US11321829B2 (en) Medical image processing apparatus, method for processing medical image, and non-transitory computer medium storing computer program
JP7583530B2 (en) Medical information processing device, medical image diagnostic device, and medical information processing method
JP7483361B2 (en) Medical image processing device, medical image diagnostic device, and medical image processing program
CN110881993B (en) X-ray CT apparatus, medical image processing apparatus, and X-ray CT system
JP2021191404A (en) Image processing system, radial ray imaging system, image processing method, and image processing program
JP6466057B2 (en) Medical diagnostic imaging equipment
JP7462433B2 (en) Medical diagnostic system, medical diagnostic device, and medical information processing device
JP2016059610A (en) Medical image processor and image data display method in medical image processor
US10806418B2 (en) X-ray CT apparatus and imaging condition calculating method
JP7039372B2 (en) X-ray CT device
JP6873831B2 (en) Medical image diagnostic equipment, medical image processing equipment and medical image processing program
JP7473313B2 (en) Medical image processing device, medical image processing method, and medical image processing program
JP7140566B2 (en) X-ray CT device and imaging planning device
JP2021037148A (en) Medical diagnostic imaging apparatus, medical diagnostic imaging program, and imaging planning apparatus
JP7510775B2 (en) Medical image processing device and medical image diagnostic device
JP7236239B2 (en) X-ray CT system and CT scan execution program
JP6923414B2 (en) X-ray computed tomography equipment, medical imaging equipment, and programs
JP7098292B2 (en) X-ray CT device
JP2024039641A (en) Medical information quantification apparatus, medical information quantification method, medical information quantification program, and medical image diagnostic apparatus
JP2023045878A (en) Medical image processing device, medical image processing method, and program
JP2022046946A (en) X-ray ct apparatus
JP2023170584A (en) Medical image processing device and medical image processing method
JP2023156085A (en) Nuclear medicine diagnosis device, nuclear medicine diagnosis method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220830

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20230106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230804

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240205

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20240213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240501

R150 Certificate of patent or registration of utility model

Ref document number: 7483361

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150