JP7555560B2 - Medical image processing apparatus, control method for medical image processing apparatus, and medical image processing program - Google Patents
Medical image processing apparatus, control method for medical image processing apparatus, and medical image processing program Download PDFInfo
- Publication number
- JP7555560B2 JP7555560B2 JP2020078919A JP2020078919A JP7555560B2 JP 7555560 B2 JP7555560 B2 JP 7555560B2 JP 2020078919 A JP2020078919 A JP 2020078919A JP 2020078919 A JP2020078919 A JP 2020078919A JP 7555560 B2 JP7555560 B2 JP 7555560B2
- Authority
- JP
- Japan
- Prior art keywords
- dimensional image
- image processing
- display
- image
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 87
- 238000000034 method Methods 0.000 title claims description 66
- 210000003484 anatomy Anatomy 0.000 claims description 48
- 230000008569 process Effects 0.000 claims description 34
- 230000006870 function Effects 0.000 description 64
- 239000000523 sample Substances 0.000 description 27
- 238000013500 data storage Methods 0.000 description 26
- 238000010586 diagram Methods 0.000 description 15
- 210000003811 finger Anatomy 0.000 description 15
- 238000003384 imaging method Methods 0.000 description 15
- 238000004088 simulation Methods 0.000 description 13
- 206010028980 Neoplasm Diseases 0.000 description 12
- 210000004204 blood vessel Anatomy 0.000 description 12
- 238000001356 surgical procedure Methods 0.000 description 12
- 230000015271 coagulation Effects 0.000 description 10
- 238000005345 coagulation Methods 0.000 description 10
- 238000011282 treatment Methods 0.000 description 9
- 238000002591 computed tomography Methods 0.000 description 8
- 238000004590 computer program Methods 0.000 description 8
- 239000007788 liquid Substances 0.000 description 7
- 238000007726 management method Methods 0.000 description 7
- 238000002834 transmittance Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 210000004185 liver Anatomy 0.000 description 6
- 206010028851 Necrosis Diseases 0.000 description 5
- 230000017531 blood circulation Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000002604 ultrasonography Methods 0.000 description 5
- 239000002872 contrast media Substances 0.000 description 4
- 238000002347 injection Methods 0.000 description 4
- 239000007924 injection Substances 0.000 description 4
- 210000000056 organ Anatomy 0.000 description 4
- 238000009877 rendering Methods 0.000 description 4
- 210000003813 thumb Anatomy 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000000903 blocking effect Effects 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 3
- 238000007710 freezing Methods 0.000 description 3
- 230000008014 freezing Effects 0.000 description 3
- 230000003902 lesion Effects 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 238000004040 coloring Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000002595 magnetic resonance imaging Methods 0.000 description 2
- 238000002600 positron emission tomography Methods 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000001052 transient effect Effects 0.000 description 2
- 239000004925 Acrylic resin Substances 0.000 description 1
- 229920000178 Acrylic resin Polymers 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 238000002583 angiography Methods 0.000 description 1
- 230000000740 bleeding effect Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000000315 cryotherapy Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002674 endoscopic surgery Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 201000007270 liver cancer Diseases 0.000 description 1
- 208000014018 liver neoplasm Diseases 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000017074 necrotic cell death Effects 0.000 description 1
- 230000002956 necrotizing effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 238000002560 therapeutic procedure Methods 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Processing Or Creating Images (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Image Generation (AREA)
Description
本発明は、被検者の解剖学的構造体を二次元または三次元の医用画像として表示する医用画像処理装置、医用画像処理装置の制御方法および医用画像処理プログラムに関し、特には、三次元医用画像を操作性良く扱うことができ高信頼な手術の実施に寄与し得る医用画像処理装置、医用画像処理装置の制御方法および医用画像処理プログラムに関する。 The present invention relates to a medical image processing device that displays the anatomical structures of a subject as two-dimensional or three-dimensional medical images, a control method for the medical image processing device, and a medical image processing program, and in particular to a medical image processing device that can handle three-dimensional medical images with good operability and contribute to the implementation of highly reliable surgery, a control method for the medical image processing device, and a medical image processing program.
従来、CT装置等の撮像装置によって得られた断層画像データに基づき医用画像を生成し、その医用画像を用いて診断および治療が行われている。医用画像は、例えば、病変の有無の確認、手術前のシミュレーション、および手術中のナビゲーション等に利用される。医用画像としては、二次元画像だけではなく、解剖学的構造体を立体的に表した三次元画像(三次元モデル)も利用されるようになってきている。なお、撮像装置によって取得される断層画像データは、複数のスライス画像データすなわち二次元画像のデータであり、一方、三次元画像は、二次元画像のデータからボリュームデータを作成することによって得られるものである。 Conventionally, medical images are generated based on tomographic image data obtained by an imaging device such as a CT scanner, and diagnosis and treatment are performed using the medical images. Medical images are used, for example, to check the presence or absence of lesions, for pre-operative simulations, and for navigation during surgery. In addition to two-dimensional images, three-dimensional images (three-dimensional models) that show anatomical structures in three dimensions are also increasingly being used as medical images. Note that the tomographic image data obtained by an imaging device is data of multiple slices, i.e., two-dimensional images, while three-dimensional images are obtained by creating volume data from two-dimensional image data.
例えば特許文献1には、二次元画像と三次元画像を同一の表示デバイスに表示できる医用画像表示装置が開示されている。 For example, Patent Document 1 discloses a medical image display device that can display two-dimensional and three-dimensional images on the same display device.
上記文献の装置でも、二次元画像と三次元画像との両方を観察しながら良好に病変の有無の確認やシミュレーション等を行うことができるが、手術直前や手術中という状況下での使用が想定されるこの種の装置においては、医用画像をより操作性良く扱うことができるようになっていることが高信頼な手術実施の観点からも望ましい。 The device in the above document also allows for good confirmation of the presence or absence of lesions and simulations while observing both two-dimensional and three-dimensional images, but in this type of device, which is expected to be used immediately before or during surgery, it is desirable from the perspective of performing highly reliable surgery to be able to handle medical images with greater ease of use.
そこで、本発明の目的は、三次元医用画像を操作性良く扱うことができ高信頼な手術の実施に寄与し得る医用画像処理装置、医用画像処理方法および医用画像処理プログラムを提供することにある。 The object of the present invention is to provide a medical image processing device, a medical image processing method, and a medical image processing program that can handle three-dimensional medical images with ease and contribute to the implementation of highly reliable surgery.
上記目的を達成するため、本発明の一形態に係る発明は下記の通りである:
被検者の解剖学的構造体を表す三次元画像の表示を制御する表示制御部を備える医用画像処理装置であって、
上記表示制御部は、
上記三次元画像の表示範囲を規定するためのグラフィカルユーザインターフェースを含む画像を生成する処理であって、当該グラフィカルユーザインターフェースは、
三次元空間内における所定の基準軸に沿った上記三次元画像の一方の側の切断基準面を規定するための第1のスライダと、
上記所定の基準軸に沿った上記三次元画像の他方の側の切断基準面を特定するための第2のスライダと、
を含むものである、画像生成処理と、
上記切断基準面どうしの間に存在する上記三次元画像を表示する処理と、
を行うように構成されている、医用画像処理装置。
In order to achieve the above object, one aspect of the present invention is as follows:
A medical image processing device including a display control unit that controls display of a three-dimensional image representing an anatomical structure of a subject,
The display control unit is
A process for generating an image including a graphical user interface for defining a display range of the three-dimensional image, the graphical user interface comprising:
a first slider for defining a cutting reference plane on one side of the three-dimensional image along a predetermined reference axis in three-dimensional space;
a second slider for identifying a cutting reference plane on the other side of the three-dimensional image along the predetermined reference axis;
An image generation process comprising:
A process of displaying the three-dimensional image existing between the cutting reference planes;
13. A medical image processing device configured to:
(用語の定義)
・「二次元画像」(医用画像に関する文脈における二次元画像)とは、被検者の断面画像のことをいい、例えばCT値の大小に応じた濃淡で表される画像等がこれに相当する。
・「三次元画像」とは、解剖学的構造体を三次元的に表した立体的モデルのことをいう。三次元画像は、一例として、解剖学的構造体ごとに設定された複数のレイヤーで構成されており、座標情報の他に、これらレイヤーを示す情報である複数のレイヤー情報、およびレイヤーごと(解剖学的構造ごと)に異なる色相情報をもっている。これらの情報は、一例で、ボリュームデータセットから三次元画像を作成した際に、ボリュームデータセットの各ボクセルから引き継いだ情報であってもよい。三次元画像においては、レイヤーごとに解剖学的構造体が異なる色で表示されてもよい。
・「解剖学的構造体」とは、被写体内で認識可能な対象物(例えば臓器、骨、血管等)のことをいい、脂肪や、腫瘍等の病変等も含む。また、全体としてみれば1つの解剖学的構造であっても、複数の単位に分けられたり別個の役割等を有していたりする解剖学的構造体については、複数の解剖学的構造体として扱われることもある。例えば、肺は、上葉、中葉および下葉をそれぞれ別個の解剖学的構造体として扱うことができ、また、血管は、動脈系血管と静脈系血管をそれぞれ別個の解剖学的構造体として扱うことができる。
・「選択する」という語句に関し、例えば、「操作者がアイコンを選択する」と言った場合には、アイコンを選ぶための手段は特に限定されるものではなく、例えば、タッチパネルを介して操作者が当該アイコンをタッチ(タップ)すること、マウス等を用いてカーソルで当該アイコンを選択すること、ジェスチャ入力等を用いて当該アイコンを選択すること等の全てが含まれるものとする。
・「制御部」とは、一形態では、CPUおよびメモリ等を有し演算処理を行うものであり、「コントローラ」、「プロセッサ」、「コントローラユニット(制御ユニット)」、「コントローラ回路(制御回路)」、「コントローラモジュール(制御モジュール)」、「プロセッサ部」、「演算部」、「プロセッサユニット」、「プロセッサモジュール」等と呼ぶこともできる。「制御部」は、マイクロコンピュータ、マイクロコントローラ、プログラマブル論理コントローラ、特定応用向け集積回路、および他のプログラム可能な回路などで構成することができる。本明細書において、「制御部」は、物理的に1つの構成であってもよいが、2つまたは3以上の制御部が機能的に協働して1つの「制御部」を構成するものであってもよい。
・画像の表示における「半透明」とは、三次元画像での解剖学的構造体の表示形態の一つであり、隠れていた他の解剖学的構造体を視認できるように透過率が設定されていることを意味し、半透明とされる対象となる解剖学的構造体をほとんど視認することができない状態での表示も含む。
(Definition of terms)
A "two-dimensional image" (two-dimensional image in the context of medical images) refers to a cross-sectional image of a subject, such as an image expressed in shades of gray corresponding to the magnitude of the CT value.
"Three-dimensional image" refers to a three-dimensional model that represents an anatomical structure in three dimensions. As an example, a three-dimensional image is composed of multiple layers that are set for each anatomical structure, and in addition to coordinate information, the image has multiple layer information that indicates these layers, and different hue information for each layer (each anatomical structure). As an example, this information may be information inherited from each voxel of a volume data set when the three-dimensional image is created from the volume data set. In the three-dimensional image, the anatomical structures may be displayed in different colors for each layer.
"Anatomical structure" refers to a recognizable object within a subject (e.g., organs, bones, blood vessels, etc.), including fat and lesions such as tumors. Also, even if an anatomical structure is viewed as a whole, it may be treated as multiple anatomical structures if it is divided into multiple units or has separate roles. For example, the upper lobe, middle lobe, and lower lobe of the lungs can each be treated as separate anatomical structures, and the arterial and venous blood vessels can each be treated as separate anatomical structures.
With regard to the word "select", for example, when it is said that "the operator selects an icon", the means for selecting an icon is not particularly limited, and includes, for example, the operator touching (tapping) the icon via a touch panel, selecting the icon with a cursor using a mouse or the like, selecting the icon using gesture input, etc.
In one embodiment, the "controller" has a CPU, memory, and the like and performs arithmetic processing, and may also be called a "controller," a "processor," a "controller unit," a "controller circuit," a "controller module," a "processor section," a "arithmetic section," a "processor unit," a "processor module," or the like. The "controller" may be composed of a microcomputer, a microcontroller, a programmable logic controller, an application-specific integrated circuit, and other programmable circuits. In this specification, the "controller" may be a single physical configuration, or two or more control units may functionally cooperate to constitute one "controller."
"Semi-transparent" in image display is one of the display forms of anatomical structures in a three-dimensional image, and means that the transparency is set so that other anatomical structures that were hidden can be made visible. It also includes a display in which the anatomical structure that is considered to be semi-transparent is almost impossible to see.
(医用画像処理装置の一般的説明)
医用画像処理装置は、一例として、操作者からの入力を受け付けるための入力デバイスと、その入力に基づいて所定のデータ処理を行う一つまたは複数の制御部(プロセッサ部)と、医用画像を表示するための表示デバイス等を備え、二次元画像および三次元画像を表示する。表示デバイスを備えておらず、画像の生成等のみを行う装置も本発明の医用画像処理装置に含まれる。医用画像処理装置が有する表示機能としては、次のようなものの少なくとも1つが挙げられる:
・医用画像の移動、回転、拡大・縮小等、断面位置変更等、
・特定の解剖学的構造体の着色表示、透過状態での表示等、
・二次元画像と三次元画像とにおける対応位置の表示等。
(General Description of Medical Imaging Devices)
As an example, a medical image processing device includes an input device for receiving input from an operator, one or more control units (processor units) that perform predetermined data processing based on the input, and a display device for displaying medical images, and displays two-dimensional and three-dimensional images. Devices that do not include a display device and only perform image generation, etc., are also included in the medical image processing device of the present invention. Display functions possessed by a medical image processing device include at least one of the following:
- Movement, rotation, enlargement, reduction, etc. of medical images, change of cross-sectional position, etc.
- Coloring of specific anatomical structures, display in a transparent state, etc.
- Display of corresponding positions in two-dimensional and three-dimensional images, etc.
本発明によれば、三次元医用画像を操作性良く扱うことができ高信頼な手術の実施に寄与し得る医用画像処理装置、医用画像処理方法および医用画像処理プログラムを提供することができる。 The present invention provides a medical image processing device, a medical image processing method, and a medical image processing program that can handle three-dimensional medical images with ease and contribute to the performance of highly reliable surgery.
以下、本発明の幾つかの形態について図面を参照しながら説明する。なお、以下で説明する具体的な機器の構成や方法はあくまで本発明の一形態に係るものであり、本発明はこれに必ずしもこれに限定されるものではない。 Below, several embodiments of the present invention will be described with reference to the drawings. Note that the specific device configuration and method described below relate to only one embodiment of the present invention, and the present invention is not necessarily limited to this.
医用画像処理システム1は、図1に示すように、この例では、画像表示制御部11と、データ格納部12と、表示デバイス13と、入力デバイス14とを備えている。医用画像処理システム1は、さらに、データ入出力インターフェース15、医用情報管理装置21、薬液注入装置22および撮像装置23を備えていてもよい。医用画像処理システム1は、三次元画像およびその三次元画像と関連付けられた他の種類の画像である第二画像を表示デバイス13に同時に表示できるように構成されるものである。以下においては、第二画像が二次元画像である場合を例に挙げて説明する。 As shown in FIG. 1, in this example, the medical image processing system 1 includes an image display control unit 11, a data storage unit 12, a display device 13, and an input device 14. The medical image processing system 1 may further include a data input/output interface 15, a medical information management device 21, a liquid medicine injection device 22, and an imaging device 23. The medical image processing system 1 is configured so that a three-dimensional image and a second image, which is another type of image associated with the three-dimensional image, can be simultaneously displayed on the display device 13. In the following, an example will be described in which the second image is a two-dimensional image.
表示デバイス13は、液晶ディスプレイおよび有機ELディスプレイなど、画像表示制御部11で作成された画像を表示できる任意のディスプレイであってよい。表示デバイス13は1つであってもよいし複数であってもよい。 The display device 13 may be any display capable of displaying the image created by the image display control unit 11, such as a liquid crystal display or an organic EL display. There may be one or more display devices 13.
入力デバイス14は、例えば、キーボードやマウスなど、操作者による入力操作を受け付け、画像表示制御部11にデータ等を入力できる任意のデバイスであってよい。また、ディスプレイとタッチスクリーンとを組み合わせたタッチパネルを、表示デバイス13および入力デバイス14として用いることもできる。入力デバイス14としては、非接触で入力を行うことのできる非接触入力ユニットを組み合わせることもできる。非接触入力ユニットは、ジェスチャ認識技術を利用したものと音声認識技術を利用したものに分けることができる。ジェスチャ認識技術を利用した非接触入力ユニットの一例として、「Leapセンサ」(Leap Motion社製)が挙げられる。「Leapセンサ」は、操作者の指の動き等を非接触で認識できる入力デバイスであり、赤外線照射部と、赤外線カメラ等を有する。赤外線照射部から照射された赤外線が操作者の手に当たったときの反射光を赤外線カメラで撮影し、画像解析を行うことで、三次元空間内での操作者の手および指の位置、動作および形状等をリアルタイムで検出するものである。ジェスチャ認識技術を利用した非接触入力ユニットの他の例として、「リアルセンス」(インテル社製)が挙げられる。「リアルセンス」は、RGBカメラおよび赤外線カメラから構成された3Dカメラ、赤外線センサ等をモジュール化したものであり、色情報の他に奥行情報を取得でき、操作者の指等の動作を三次元で認識可能である。本形態では、Leapセンサおよびリアルセンスのいずれも利用可能であり、いずれにおいても、入力のための操作者の動作は、タッチパネル上での操作者の動作(例えば、タップ、ダブルタップ、スワイプ、フリック、ピンチイン、ピンチアウトなど)と同じ動作に加え、奥行方向の動作も利用可能である。実際の入力動作に際しては、アクリル樹脂等からなる透明な平板を適宜位置に配置し、その平板を基準面として入力動作を行うようにすることで、奥行方向での位置ずれによる誤認識を防止することができる。 The input device 14 may be any device, such as a keyboard or a mouse, that can accept input operations by the operator and input data, etc., to the image display control unit 11. A touch panel that combines a display and a touch screen can also be used as the display device 13 and the input device 14. The input device 14 can also be combined with a non-contact input unit that can perform input without contact. Non-contact input units can be divided into those that use gesture recognition technology and those that use voice recognition technology. An example of a non-contact input unit that uses gesture recognition technology is the "Leap Sensor" (manufactured by Leap Motion). The "Leap Sensor" is an input device that can recognize the movement of the operator's fingers, etc., without contact, and has an infrared irradiation unit and an infrared camera, etc. When infrared rays irradiated from the infrared irradiation unit hit the operator's hand, the reflected light is photographed by an infrared camera, and the image is analyzed to detect the position, movement, shape, etc. of the operator's hand and fingers in three-dimensional space in real time. Another example of a non-contact input unit using gesture recognition technology is "RealSense" (manufactured by Intel). "RealSense" is a modularized 3D camera consisting of an RGB camera and an infrared camera, an infrared sensor, etc., and can obtain depth information in addition to color information, and can recognize the movement of the operator's fingers, etc. in three dimensions. In this embodiment, both the Leap sensor and RealSense can be used, and in either case, the operator's movements for input include the same movements as the operator's movements on a touch panel (e.g., tap, double tap, swipe, flick, pinch in, pinch out, etc.), as well as movements in the depth direction. When actually performing an input operation, a transparent flat plate made of acrylic resin or the like is placed at an appropriate position, and the input operation is performed using the flat plate as a reference plane, thereby preventing erroneous recognition due to positional deviation in the depth direction.
音声認識技術を利用した非接触入力ユニットの例として、音声認識ユニットを挙げることができる。音声認識ユニットは、操作者が発生した音声を取得するマイクロフォンと、マイクロフォンが取得した音声を認識して操作用信号に変換する音声認識装置とを有するものであってもよい。音声認識装置の設置場所は任意であってよいが、マイクロフォンは、操作者の近くに設置することが好ましい。 A voice recognition unit is an example of a non-contact input unit that uses voice recognition technology. The voice recognition unit may have a microphone that picks up the voice generated by the operator, and a voice recognition device that recognizes the voice picked up by the microphone and converts it into an operation signal. The voice recognition device may be installed anywhere, but it is preferable to install the microphone near the operator.
データ格納部12は、複数の解剖学的構造体についての立体的配置を表す三次元画像を作成可能な少なくとも1つのデータセットを格納する。データ格納部12としては、HDD(Hard Disc Drive)、SSD(Solid State Drive)および各種メモリの少なくとも一種を含むことができる。データ格納部12には、これら二次元画像データおよび三次元画像データの他に、画像表示制御部11が行う処理に必要な少なくとも1つのプログラム、テーブル、データベース等が格納されていてもよい。データ格納部12に格納されるデータセットは、データ入出力インターフェース15を通じて医用情報管理装置21から取得することができる。データ入出力インターフェース15は、医用情報管理装置21と無線接続されるものであってもよいし有線接続されるものであってもよい。 The data storage unit 12 stores at least one data set capable of creating a three-dimensional image showing the three-dimensional arrangement of a plurality of anatomical structures. The data storage unit 12 may include at least one of a hard disk drive (HDD), a solid state drive (SSD), and various types of memory. In addition to these two-dimensional image data and three-dimensional image data, the data storage unit 12 may store at least one program, table, database, etc. required for the processing performed by the image display control unit 11. The data set stored in the data storage unit 12 can be obtained from the medical information management device 21 through the data input/output interface 15. The data input/output interface 15 may be connected to the medical information management device 21 wirelessly or by wire.
医用情報管理装置21としては、PACS(picture Archiving and CommunicationSystems)、RIS(Radiology Information System)およびHIS(Hospital Information System)等が挙げられる。医用情報管理装置21は、薬液注入装置22によって薬液(例えば造影剤)が注入され、撮像装置23によって撮像された被検者の医用画像のデータを管理する。薬液注入装置22としては、シリンジや薬液バッグ等に充填された造影剤等の薬液を、予め設定された注入条件に従って被検者に注入する任意の注入装置であってもよい。 The medical information management device 21 may be a PACS (picture archiving and communication system), a RIS (radiology information system), or a HIS (hospital information system). The medical information management device 21 manages data on medical images of a subject into which a medicinal liquid (e.g., contrast agent) is injected by a medicinal liquid injector 22 and which is captured by an imaging device 23. The medicinal liquid injector 22 may be any injection device that injects a medicinal liquid such as a contrast agent filled in a syringe or a medicinal liquid bag into the subject according to preset injection conditions.
撮像装置23は、CT(Computed Tomography)装置、MRI(Maganetic Resonance Imaging)装置、アンギオグラフィ装置、PET(Positoron Emission Tomography)装置、超音波診断装置等、画像データで構成された医用画像を撮像することのできる任意の装置であってよい。データ格納部12に格納されるデータセットは、撮像装置23から取得することもできる。 The imaging device 23 may be any device capable of capturing medical images composed of image data, such as a CT (Computed Tomography) device, an MRI (Magnetic Resonance Imaging) device, an angiography device, a PET (Positron Emission Tomography) device, an ultrasound diagnostic device, etc. The data set stored in the data storage unit 12 can also be acquired from the imaging device 23.
なお、データ格納部12に格納されるデータセットについて説明すると、データセットの例としては、複数の解剖学的構造体についてのボリュームデータセットが挙げられる。ボリュームデータセットは、撮像装置23によって被検者に対して特定の方向(例えば、体軸方向、左右方向、前後方向、これらの少なくとも1つに対して傾斜した方向など)に一定の間隔(例えば1mm間隔)で連続的に撮影された複数(例えば300枚)のスライス画像データを体軸方向に配列して得られるデータセットである。また、データ格納部12に格納されるデータセットは、撮像装置23から直接または間接的に取得された生データであってもよい。この場合、画像表示処理部11は、データ格納部12に格納された生データの再構成を行い、任意の画像を得るように構成されることが好ましい。ボリュームデータセットは複数のボクセルからなり、各ボクセルのボクセル値に基づく所定の処理により、複数の解剖学的構造体が抽出される。そして、各ボクセルに対して、抽出した解剖学的構造体ごとに透過率や色相が設定される。よって、各ボクセルは、座標情報、透過率情報および色相情報を含んでいる。このようにして解剖学的構造体が抽出され、解剖学的構造体ごとに透過率や色相が設定されたボリュームデータセットにレンダリング処理を行うことによって、三次元画像が作成される。レンダリング処理としては、ボリュームレンダリング(VR)、最大値投影法(MIP)などが挙げられる。解剖学的構造体の抽出のための処理、各ボクセルに対する透過率や色相の設定、およびレンダリング処理など、ボリュームデータセットから三次元画像を作成するための各処理は公知の処理であってよいので、ここではそれらの詳細な説明は省略する。また、ボリュームデータセットにおける解剖学的構造体の抽出、および透過率・色相の設定は、この画像表示制御部11で行ってもよいし、予め、解剖学的構造体が抽出され透過率および色相が設定されたボリュームデータセットがデータ格納部12等に格納されていてもよい。 Regarding the data set stored in the data storage unit 12, an example of the data set is a volume data set for a plurality of anatomical structures. The volume data set is a data set obtained by arranging a plurality of (e.g., 300) slice image data pieces, which are continuously photographed at regular intervals (e.g., 1 mm intervals) in a specific direction (e.g., body axis direction, left-right direction, front-back direction, a direction inclined to at least one of these directions) of the subject by the imaging device 23, in the body axis direction. The data set stored in the data storage unit 12 may be raw data obtained directly or indirectly from the imaging device 23. In this case, it is preferable that the image display processing unit 11 is configured to reconstruct the raw data stored in the data storage unit 12 and obtain an arbitrary image. The volume data set is composed of a plurality of voxels, and a plurality of anatomical structures are extracted by a predetermined process based on the voxel value of each voxel. Then, the transmittance and hue are set for each extracted anatomical structure for each voxel. Thus, each voxel includes coordinate information, transmittance information, and hue information. In this way, anatomical structures are extracted, and a three-dimensional image is created by performing rendering processing on the volume data set in which the transmittance and hue are set for each anatomical structure. Examples of rendering processing include volume rendering (VR) and maximum intensity projection (MIP). Since each process for creating a three-dimensional image from a volume data set, such as the process for extracting anatomical structures, the setting of the transmittance and hue for each voxel, and the rendering process, may be known processes, detailed explanations of them will be omitted here. In addition, the extraction of anatomical structures in the volume data set and the setting of the transmittance and hue may be performed by this image display control unit 11, or the volume data set in which the anatomical structures are extracted and the transmittance and hue are set may be stored in advance in the data storage unit 12, etc.
解剖学的構造体ごとに透過率および色相が設定されたボリュームデータセットは、解剖学的構造体ごとに複数のレイヤーに分けられており、各ボクセルがレイヤー情報を含んでいてもよい。この場合、ボリュームデータセットは、解剖学的構造体ごとの複数のレイヤー情報をもつ1つのデータファイルとしてデータ格納部12等に格納されていてもよいし、それぞれレイヤー情報ごとに分けられた複数のデータファイルとしてデータ格納部12等に格納されていてもよい。ボリュームデータセットがいずれの形態で格納されるかは、ボリュームデータセットの格納時に操作者が任意に選択できるようにしてもよい。 The volume data set in which the transmittance and hue are set for each anatomical structure may be divided into multiple layers for each anatomical structure, and each voxel may contain layer information. In this case, the volume data set may be stored in the data storage unit 12 or the like as one data file having multiple layer information for each anatomical structure, or may be stored in the data storage unit 12 or the like as multiple data files each divided according to layer information. The form in which the volume data set is stored may be freely selected by the operator when storing the volume data set.
なお、ボリュームデータセットを任意の平面で切り出して再構成することによって、二次元画像を作成することが可能である。このような処理を、任意断面再構成(MPR)という。医療分野で用いられる二次元画像としては、基本的に、被検者の体軸方向に垂直なアキシャル断面、被検者の左右方向に垂直なサジタル断面および被検者の前後方向に垂直なコロナル断面がある。これらの二次元画像は、ボリュームデータセットから作成された、所望の断面位置における二次元画像データを用いて作成可能である。二次元画像データの作成は、データ格納部12等に格納されたボリュームデータセットを用い、この画像表示制御部11で行なわれてもよい。あるいは、ボリュームデータセットを用いて予め作成された複数の二次元画像データ(二次元画像データセット)が、その元となるボリュームデータセットとともにデータ格納部12等に格納されてもよい。いずれの場合でも、ボリュームデータから二次元画像データが作成された段階で、ボリュームデータの各ボクセルの座標情報が二次元画像データに引き継がれ、したがって、共通のボリュームデータに基づく三次元画像および二次元画像は共通の座標データをもっている。また、二次元画像の表示に際しては、二次元画像データの補間処理がなされてもよい。例えば上記のアキシャル断面、サジタル断面およびコロナル断面といった複数の断面における二次元画像データセットがデータ格納部12等に格納される場合、二次元画像データセットは、全ての断面についての複数の二次元画像データを有する1つのデータファイルとしてデータ格納部12に格納されていてもよいし、それぞれ各断面についての複数の二次元画像データを有する複数のデータファイルとしてデータ格納部12等に格納されていてもよい。 It is possible to create a two-dimensional image by cutting out the volume data set on an arbitrary plane and reconstructing it. This process is called arbitrary plane reconstruction (MPR). Basically, two-dimensional images used in the medical field include an axial section perpendicular to the subject's body axis, a sagittal section perpendicular to the subject's left-right direction, and a coronal section perpendicular to the subject's anterior-posterior direction. These two-dimensional images can be created using two-dimensional image data at a desired cross-sectional position created from the volume data set. The creation of the two-dimensional image data may be performed by the image display control unit 11 using a volume data set stored in the data storage unit 12 or the like. Alternatively, multiple two-dimensional image data (two-dimensional image data sets) created in advance using the volume data set may be stored in the data storage unit 12 or the like together with the original volume data set. In either case, when the two-dimensional image data is created from the volume data, the coordinate information of each voxel of the volume data is inherited by the two-dimensional image data, and therefore the three-dimensional image and the two-dimensional image based on the common volume data have common coordinate data. In addition, when the two-dimensional image is displayed, an interpolation process of the two-dimensional image data may be performed. For example, when two-dimensional image data sets in multiple slices such as the above-mentioned axial slice, sagittal slice, and coronal slice are stored in the data storage unit 12, etc., the two-dimensional image data set may be stored in the data storage unit 12 as one data file having multiple two-dimensional image data for all slices, or may be stored in the data storage unit 12, etc. as multiple data files each having multiple two-dimensional image data for each slice.
図1の構成に関し、符号10で示す医用画像処理装置が、画像表示制御部11、データ格納部12、表示デバイス13、入力デバイス14およびデータ入出力インターフェース15を単一の筐体内に収めたものとして構成されていてもよい。医用画像処理装置10としては、タブレット端末や、タッチパネルディスプレイを有するノート型パーソナルコンピュータなど、可搬型の端末であってもよい。もっとも、本発明はこれに限らず、医用画像処理端末10が、表示デバイス13および入力デバイス14が画像表示制御部11と別体のユニットで構成されたワークステーションとして構成されていてもよい。 Regarding the configuration in FIG. 1, the medical image processing device indicated by the reference symbol 10 may be configured as a device in which the image display control unit 11, data storage unit 12, display device 13, input device 14, and data input/output interface 15 are housed in a single housing. The medical image processing device 10 may be a portable terminal such as a tablet terminal or a notebook personal computer having a touch panel display. However, the present invention is not limited to this, and the medical image processing terminal 10 may be configured as a workstation in which the display device 13 and input device 14 are configured as separate units from the image display control unit 11.
画像表示制御部11は、CPU(Central Processing Unit)、ROM(Read Only Memory)およびRAM(Random Access Memory)を備えたコンピュータユニットで構成することができ、入力デバイス14によって受け付けられた入力に従って表示デバイス13への画像の表示を制御する種々の処理を実行する。画像表示制御部11で行われる処理は、コンピュータプログラムで実現してもよいし、論理回路によるハードウェアで実現してもよい。画像表示制御部11で行われる処理をコンピュータプログラムで実現する場合、コンピュータプログラムは、前述したように、データ格納部12等に格納されてもよい。データ格納部12に格納されたコンピュータプログラムは、画像表示制御部11のRAMにロードされることによって実行され、CPUなどのハードウェアと協働することによって各種処理が実行される。 The image display control unit 11 may be configured as a computer unit equipped with a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory), and executes various processes to control the display of images on the display device 13 according to input received by the input device 14. The processes performed by the image display control unit 11 may be realized by a computer program, or may be realized by hardware using logic circuits. When the processes performed by the image display control unit 11 are realized by a computer program, the computer program may be stored in the data storage unit 12, etc., as described above. The computer program stored in the data storage unit 12 is executed by being loaded into the RAM of the image display control unit 11, and various processes are executed by cooperating with hardware such as the CPU.
コンピュータプログラムは、コンピュータ読み取り可能な記録媒体に記憶させてもよい。コンピュータプログラムを記憶した記録媒体は、非一過性の記録媒体であってもよい。非一過性の記録媒体は特に限定されず、例えば、メモリーカード、CD-ROM等の記録媒体であってもよい。記録媒体に記憶されたコンピュータプログラムは、適宜のリーダーを介してコンピュータユニットに格納されてもよい。適宜のリーダーとは、例えば、記録媒体がメモリーカードである場合はカードリーダ、記録媒体がCD-ROMである場合はCDドライブ、などが挙げられる。または、コンピュータプログラムは、外部のサーバから通信ネットワークを介してコンピュータユニットにダウンロードされたものであってもよい。 The computer program may be stored in a computer-readable recording medium. The recording medium storing the computer program may be a non-transient recording medium. There is no particular limitation on the non-transient recording medium, and it may be, for example, a memory card, a CD-ROM, or other recording medium. The computer program stored in the recording medium may be stored in the computer unit via an appropriate reader. Examples of the appropriate reader include a card reader when the recording medium is a memory card, and a CD drive when the recording medium is a CD-ROM. Alternatively, the computer program may be downloaded from an external server to the computer unit via a communication network.
画像表示制御部11(図1参照)は、画像の表示を制御する種々の処理を実行するため、入力判定部、表示処理部、およびユーザインターフェース部を、概念的な構成として有するものであってもよい。 The image display control unit 11 (see FIG. 1) may have a conceptual configuration including an input determination unit, a display processing unit, and a user interface unit to execute various processes for controlling the display of images.
入力判定部は、入力デバイス14が受け付けた入力を、入力を受け付けた入力デバイス14の種類、入力された信号の変化などから、表示デバイス13に表示されている画像に対してどのような処理を行うかを判定する。表示処理部は、主に、表示デバイス13の表示領域についての処理および表示領域内での画像表示についての処理を行う。 The input determination unit determines what processing should be performed on the image displayed on the display device 13 based on the input received by the input device 14, the type of input device 14 that received the input, changes in the input signal, etc. The display processing unit mainly processes the display area of the display device 13 and processes the image display within the display area.
これらの処理について、データ格納部12等にボリュームデータセットが格納されている場合を例として簡単に説明すると、表示領域の処理に関し、表示処理部は、図2等に示す具体的な医用画像を生成して表示デバイスに表示させる。ユーザインターフェース部は、操作者からの入力操作のための画像ボタン(アイコン)をはじめとする種々のユーザインターフェース等の画像を生成および/または表示させる役割を果たす。 To briefly explain these processes, taking as an example a case where a volume data set is stored in the data storage unit 12 or the like, in regard to the processing of the display area, the display processing unit generates specific medical images as shown in FIG. 2 or the like and displays them on the display device. The user interface unit plays a role in generating and/or displaying images of various user interfaces, including image buttons (icons) for input operations by the operator.
表示領域内での画像表示についての処理では、詳細は後述するように、データ格納部12等に格納されているボリュームデータセットから作成された三次元画像を表示させると同時に、三次元画像で特定された位置に対応する二次元画像をデータ格納部12等に格納されているボリュームデータセットから作成し、表示させる処理を行う。 In processing the image display within the display area, as described in detail below, a three-dimensional image created from a volume data set stored in the data storage unit 12 or the like is displayed, and at the same time, a two-dimensional image corresponding to a position identified in the three-dimensional image is created from a volume data set stored in the data storage unit 12 or the like and displayed.
[表示画像の具体例]
本実施形態の一形態の表示画面は図2に示すようなものであってもよい。この例では、表示画像100は、三次元画像表示領域101Aと二次元画像表示領域101Bとの2つの領域を含んでいる(以下では、これらを区別せず単に「画像表示領域(101A、101B)」などとも表現する)。なお、以下では、タッチパネルを通じて各種アイコン等が操作される例について説明するが当然ながらこれに限定されるものではない。また、説明の都合上、符号を省略して説明を行う場合もある。
[Examples of displayed images]
A display screen according to one embodiment of the present invention may be as shown in Fig. 2. In this example, the display image 100 includes two areas, a three-dimensional image display area 101A and a two-dimensional image display area 101B (hereinafter, these areas will not be distinguished from each other and will be simply expressed as "image display areas (101A, 101B)"). Note that, although an example in which various icons and the like are operated through a touch panel will be described below, the present invention is of course not limited to this. Also, for convenience of explanation, there are cases in which reference numerals are omitted in the explanation.
画像表示領域101A、101Bは、例えば横方向に並んで表示されてもよく、また、図2に示すように分割ライン102によって区切られていてもよい。この分割ライン102は、一例として、左右方向に移動可能に設けられており、これを左右に動かすことでそれぞれの画像表示領域101A、101Bのサイズを変更できるようになっている。分割ライン102が移動可能であることが操作者に直感的に理解されやすいように、分割ライン102の一部に操作対象部102aが設けられていてもよい。この操作対象部102a付近に指を触れてそれを左右に動かすことで、分割ライン102が左右に移動する。 The image display areas 101A, 101B may be displayed side by side in the horizontal direction, or may be separated by a dividing line 102 as shown in FIG. 2. As an example, the dividing line 102 is provided so as to be movable in the left-right direction, and the size of each of the image display areas 101A, 101B can be changed by moving the dividing line 102 left-right. To allow the operator to intuitively understand that the dividing line 102 is movable, an operation target portion 102a may be provided on part of the dividing line 102. By touching a finger near the operation target portion 102a and moving it left-right, the dividing line 102 moves left-right.
図2の例では、三次元画像300として、肝臓のオブジェクト305および血管のオブジェクト303を含むモデルが画像表示領域101Aに表示されている。 In the example of Figure 2, a model including a liver object 305 and a blood vessel object 303 is displayed in the image display area 101A as a three-dimensional image 300.
画像表示領域101Aには、また、三次元画像300の表示等を操作するため種々のアイコン111~116が表示されている。アイコン111は各種の機能を呼び出すためのメニューアイコンであり、アイコン112は三次元画像の表示を予めセットされた所定の姿勢に変更するためのものである。アイコン113は表示されている画像をスクリーンショットして保存するためのものであり、アイコン114はそれにより保存された画像を表示するためのものである。アイコン115は、三次元画像の表示範囲を変更調整するためのフラットカットアイコンである(詳細後述)。アイコン116は、三次元画像の表示解像度を変更するためのものであり、この例では512×512×512画素と1024×1024×1024画素とが切替可能となっている。画像表示領域101Bについても、同様のアイコンが表示されていてもよく、本実施形態では、同一機能のアイコンには同一の符号を付して表している(図2参照)。なお、アイコン115、116についてはここでは三次元画像のみを対象とした機能であるため、画像表示領域101Bには表示されていない。 In the image display area 101A, various icons 111 to 116 are displayed for operating the display of the three-dimensional image 300. The icon 111 is a menu icon for calling up various functions, and the icon 112 is for changing the display of the three-dimensional image to a predetermined posture that has been set in advance. The icon 113 is for taking a screenshot of the displayed image and saving it, and the icon 114 is for displaying the saved image. The icon 115 is a flat cut icon for changing and adjusting the display range of the three-dimensional image (described in detail later). The icon 116 is for changing the display resolution of the three-dimensional image, and in this example, it is possible to switch between 512 x 512 x 512 pixels and 1024 x 1024 x 1024 pixels. The same icons may be displayed in the image display area 101B, and in this embodiment, icons with the same functions are denoted by the same symbols (see FIG. 2). Note that the icons 115 and 116 are not displayed in the image display area 101B because their functions are intended only for three-dimensional images.
[医用画像処理装置における種々の機能]
医用画像処理装置10は医用画像の表示等に関して種々の機能を有している。以下、それら機能のうちの幾つかについて説明する。なお、以下の説明において画像処理は、一例として、図1に示した画像表示制御部11の機能により実現される。
[Various functions of medical image processing device]
The medical image processing device 10 has various functions related to the display of medical images, etc. Some of these functions will be described below. Note that in the following description, image processing is realized, as an example, by the functions of the image display control unit 11 shown in FIG.
(a)画像の回転、拡大・縮小、表示の変更等
医用画像処理装置10において、三次元画像300は、操作者による所定の入力操作によって、任意の方向への回転、拡大・縮小等、表示の変更が可能である。これらの表示の変更には、例えばタッチパネルに対する入力操作を利用してもよい。具体的には、表示の変更としては、スワイプ操作によりスワイプ方向に応じて三次元画像300を回転させること、ピンチイン・ピンチアウト操作による三次元画像300の縮小・拡大などが挙げられる。同様に、二次元画像200も、三次元画像300と同様、断面位置の変更、拡大・縮小等、表示の変更が可能である。なお、二次元画像を操作するための機能と、三次元画像を操作するための機能とは共通していてもよい。
(a) Image rotation, enlargement/reduction, display change, etc. In the medical image processing device 10, the three-dimensional image 300 can be rotated in any direction, enlarged/reduction, etc., and the display can be changed by a predetermined input operation by the operator. For example, an input operation on a touch panel may be used for these display changes. Specifically, examples of display changes include rotating the three-dimensional image 300 according to the swipe direction by a swipe operation, and shrinking/enlarging the three-dimensional image 300 by a pinch-in/pinch-out operation. Similarly, the two-dimensional image 200 can be changed in display, such as changing the cross-sectional position, enlarging/reducing, etc., like the three-dimensional image 300. Note that the function for operating the two-dimensional image and the function for operating the three-dimensional image may be common.
(b)二次元画像の断面位置を三次元画像へ表示
二次元画像200および三次元画像300はそれぞれ被検者の体軸方向、左右方向および前後方向について互いに対応する座標情報をもっている。よって、これらの座標情報を利用して、三次元画像300上で、二次元画像200の現在の表示に対応する断面位置を、三次元画像300上で表示することも可能である。二次元画像200は、その体軸方向の位置を変更可能であり、そのための入力方式は特に限定されるものではないが例えば、表示領域100B内に表示されるスクロール用インジケータ(不図示)を移動させることにより、その位置に応じた体軸方向位置の断層画像が表示される。
(b) Displaying the cross-sectional position of the two-dimensional image on the three-dimensional image The two-dimensional image 200 and the three-dimensional image 300 have corresponding coordinate information in the body axis direction, the left-right direction, and the front-back direction of the subject. Therefore, by using these coordinate information, it is also possible to display on the three-dimensional image 300 the cross-sectional position corresponding to the current display of the two-dimensional image 200. The position of the two-dimensional image 200 in the body axis direction can be changed, and the input method for this is not particularly limited, but for example, by moving a scroll indicator (not shown) displayed in the display area 100B, a tomographic image at a body axis direction position corresponding to the position is displayed.
本実施形態におけるより具体的な表示態様として、次のようなものであってもよい。すなわち、図3に示すように、二次元画像200における現在の断層画像の位置に対応した切断面310が三次元画像300と一緒に表示されるようになっていてもよい。このような切断面310が表示されることで、現在の断層画像が三次元画像のどの位置に対応しているかを視覚的に容易に把握することが可能となる。具体的には、二次元画像200における所定位置p(x、y、z)と、それに対応する三次元画像300中の所定位置P(x、y、z)とが表示される構成としてもよい。なお、こうした位置p、位置Pの表示に関し、その位置を分かり易く示すための補助線(不図示)等が必要に応じて表示されるようになっていてもよい。 A more specific display mode in this embodiment may be as follows. That is, as shown in FIG. 3, a cut surface 310 corresponding to the position of the current tomographic image in the two-dimensional image 200 may be displayed together with the three-dimensional image 300. By displaying such a cut surface 310, it becomes possible to visually and easily grasp which position in the three-dimensional image the current tomographic image corresponds to. Specifically, a configuration may be made in which a predetermined position p (x, y, z) in the two-dimensional image 200 and a corresponding predetermined position P (x, y, z) in the three-dimensional image 300 are displayed. Note that, with regard to the display of such positions p and P, auxiliary lines (not shown) or the like for easily indicating the positions may be displayed as necessary.
(c)画像表示に関する他の機能
メニューボタンアイコン111(図2参照)から呼び出すことができる機能に関し、メニューボタンアイコン111を選択すると、機能呼び出しアイコン群(図示省略)が表示され、操作者がその中から所望の1つのアイコンを選択することによって、対応する機能が選択されるように構成されていてもよい。こうした機能に含まれるものとしては例えば次のようなものであってもよい。
(c) Other Functions Related to Image Display With regard to functions that can be called up from the menu button icon 111 (see FIG. 2), when the menu button icon 111 is selected, a group of function call icons (not shown) is displayed, and the operator may select a desired icon from among them to select the corresponding function. Examples of such functions may include the following:
医用画像処理装置10は、リバート機能を有するものであってもよい。三次元画像300は、表示される向きおよびサイズ等を任意に変更でき、また、二次元画像は、表示される断面位置およびサイズ等を任意に変更できる。リバート機能とは、三次元画像および/または二次元画像の表示を初期化する機能である。表示を初期化するとは、画像表示領域101A、101Bに初期画像を表示させることを意味する。 The medical image processing device 10 may have a revert function. The orientation and size of the three-dimensional image 300 can be changed at will, and the cross-sectional position and size of the two-dimensional image can be changed at will. The revert function is a function for initializing the display of the three-dimensional image and/or the two-dimensional image. Initializing the display means displaying an initial image in the image display areas 101A and 101B.
医用画像処理装置10は、クリッピング機能を有するものであってもよい。クリッピング機能とは、ここでは一例として、三次元画像の任意の一部を切り抜いて表示する機能である。詳細な図示は省略するが、具体的な例として、「BBox」と表示されたアイコンが選択されるとクリッピング処理が実行される構成であってもよい。具体的には、クリッピング機能では、三次元画像の一部が六面体で包囲された状態で選択が行われる。六面体は、その内側に位置する解剖学的構造体を操作者が視認できるよう、半透明で表示される。このような状態でクリッピングは次のように行われる。すなわち、六面体のうちクリッピングしたい1つの面を選択すると、選択した面がアクティブとなり、アクティブとされたこの面をスライドさせると、六面体の形状が変更され、三次元画像における対象範囲が変更される。クリッピングされた面に解剖学的構造体が存在する場合、クリッピングされた面では解剖学的構造体は断面で表示されるようになっていてもよい。なお、他の面がタップされると、タップされた他の面がアクティブとされ、上記と同様、三次元画像をさらに他の面でクリッピングすることもできる構成としてもよい。 The medical image processing device 10 may have a clipping function. The clipping function is, as an example here, a function for cutting out and displaying an arbitrary part of a three-dimensional image. Although detailed illustration is omitted, as a specific example, a configuration may be used in which clipping processing is executed when an icon displayed as "BBox" is selected. Specifically, in the clipping function, selection is performed in a state in which a part of the three-dimensional image is surrounded by a hexahedron. The hexahedron is displayed semi-transparently so that the operator can visually recognize the anatomical structure located inside it. In this state, clipping is performed as follows. That is, when one face of the hexahedron to be clipped is selected, the selected face becomes active, and when the active face is slid, the shape of the hexahedron is changed and the target range in the three-dimensional image is changed. When an anatomical structure exists on the clipped face, the anatomical structure may be displayed in a cross section on the clipped face. Note that when another face is tapped, the tapped other face becomes active, and the three-dimensional image can be further clipped with the other face as described above.
医用画像処理装置10は、パースペクティブ表示機能を有するものであってもよい。パースペクティブ表示は、三次元画像を透視投影で表した遠近感を出す表現方法の一つである。操作者が、例えば、画角調整用ボタン(不図示)を所定方向にスライドさせると、スライド量またはスライダ位置に応じて、三次元画像の画角の広狭が調整され、例えば画角が広がった場合には、近い位置にある部分はより大きく、遠い位置にある部分はより小さく表示される。三次元画像を透視投影で表すことで、内視鏡で見た画像に近い画像を表示できる。よって、パースペクティブ表示機能は、内視鏡手術などにおいて、撮像装置から取得した画像を内視鏡によって得られた実際の臓器の画像と対比しながら処置を進めるなど、内視鏡手術などにおいて有効に利用できる。 The medical image processing device 10 may have a perspective display function. Perspective display is one of the methods of expressing a three-dimensional image with a perspective projection to create a sense of depth. When the operator slides, for example, a button for adjusting the angle of view (not shown) in a predetermined direction, the width of the angle of view of the three-dimensional image is adjusted according to the amount of sliding or the position of the slider. For example, when the angle of view is widened, parts that are closer are displayed larger and parts that are farther away are displayed smaller. By displaying the three-dimensional image with perspective projection, an image close to the image seen by an endoscope can be displayed. Therefore, the perspective display function can be effectively used in endoscopic surgery, for example, in which the image acquired from the imaging device is compared with an image of the actual organ obtained by the endoscope while proceeding with the procedure.
続いて、医用画像処理装置10の操作性をより好ましいものとするグラフィカルユーザインターフェースの幾つかの例、および、機能についてさらに説明する。 Next, we will further explain some examples and functions of graphical user interfaces that make the medical image processing device 10 easier to use.
(フラットカット機能)
医用画像処理装置10は、フラットカット機能を有するものであってもよい。「フラットカット機能」とは、三次元画像を1つまたは複数の基準面で切断して表示を行う機能である。図4~図6を参照しつつ、この機能について説明する。
(Flat cut function)
The medical image processing apparatus 10 may have a flat cut function. The "flat cut function" is a function for cutting a three-dimensional image by one or more reference planes and displaying the image. This function will be described with reference to Figs. 4 to 6.
フラットカット機能を発揮させるための操作は特に限定されるものではないが、例えば、図4に示すように画面上に表示されたフラットカットアイコン115を選択することでこの機能が発揮されるようになっていてもよい。このアイコン115は、画像表示領域101A内に表示されるものであってもよい。 The operation for activating the flat cut function is not particularly limited, but for example, this function may be activated by selecting a flat cut icon 115 displayed on the screen as shown in FIG. 4. This icon 115 may be displayed within the image display area 101A.
アイコン115を選択すると、グラフィカルユーザインターフェース140が表示される。このグラフィカルユーザインターフェース140は、それぞれ独立してスライド移動可能な第1のスライダ145aおよび第2のスライダ145bを含んでいる。各スライダは、ガイドライン145cに沿って移動するようになっている。スライダ145a、145bの移動方向は任意の方向であってもよいが、この例では、図示上下方向に移動する態様となっている。各スライダ145a、145bがその可動範囲の端部に位置しているとき(具体的には、一例として、スライダどうしが最も離れた状態)、三次元画像は切除されることなく、その全体が表示される。 When icon 115 is selected, a graphical user interface 140 is displayed. This graphical user interface 140 includes a first slider 145a and a second slider 145b that can be slid independently. Each slider moves along a guide line 145c. The sliders 145a and 145b may move in any direction, but in this example, they move in the vertical direction shown in the figure. When each slider 145a and 145b is located at the end of its movable range (specifically, as an example, when the sliders are furthest apart from each other), the three-dimensional image is displayed in its entirety without being cut out.
一方、図5に示すように、スライダ145a、145bの位置を変更することで、表示される三次元画像も部分的に切除された状態で表示されるようになっている。具体的には、第1のスライダ145aを可動範囲端部から少し下方にスライドさせると、その位置に対応して、三次元画像の所定基準軸(ここでは一例で「x軸」)に沿った一方側の切断基準面(不図示)が設定される。三次元画像は、その切断基準面によって切断された状態で表示される。この例では、肝臓のオブジェクト305が、端面305aで切断された状態となっている。同様に、第2のスライダ145bに関しても、それを可動範囲端部から少しスライドさせると、その位置に対応して反対側の切断基準面(不図示)が設定される。具体的には、肝臓のオブジェクト305がこの切断基準面によって切断されて端面305bが表示された状態となっている。本実施形態では、つまり、スライダ145a、145b間の距離L1に対応する領域(図5における距離L2に対応する領域)内の三次元医用画像のみが表示され、それより外側については表示されないようになっている。 On the other hand, as shown in FIG. 5, by changing the positions of the sliders 145a and 145b, the three-dimensional image is displayed in a partially cut state. Specifically, when the first slider 145a is slid slightly downward from the end of the movable range, a cutting reference plane (not shown) on one side along a predetermined reference axis (here, the "x-axis" in one example) of the three-dimensional image is set corresponding to that position. The three-dimensional image is displayed in a state cut by that cutting reference plane. In this example, the liver object 305 is cut by the end surface 305a. Similarly, when the second slider 145b is slid slightly from the end of the movable range, a cutting reference plane (not shown) on the opposite side is set corresponding to that position. Specifically, the liver object 305 is cut by this cutting reference plane and the end surface 305b is displayed. In this embodiment, that is, only the 3D medical image within the area corresponding to the distance L1 between sliders 145a and 145b (the area corresponding to distance L2 in FIG. 5) is displayed, and the area outside of that is not displayed.
このようなグラフィカルユーザインターフェース140によれば、必要に応じて、スライダ145a、145bを動かして三次元画像の表示領域を狭めたり、あるいは、その端面を表示させたりすることが可能であるため、三次元画像の解剖学的構造をより仔細に確認することができるという利点がある。 With such a graphical user interface 140, it is possible to move the sliders 145a and 145b to narrow the display area of the three-dimensional image or to display its end surface as necessary, which has the advantage that the anatomical structure of the three-dimensional image can be confirmed in more detail.
図5の状態の三次元画像を、多方面から観察したり、拡大縮小して確認を行ったりできるように、同図の状態のまま、三次元画像を移動、回転、拡大縮小させることができるようになっていることが一形態において好ましい。このような構成によれば、例えば、図5では図示奥側を向いている端面305aが手前側となるように、三次元画像を回転させて表示することができる。また、端面305aを拡大して表示すること等も可能である。 In one embodiment, it is preferable that the three-dimensional image in the state shown in FIG. 5 can be moved, rotated, and enlarged/reduced so that the three-dimensional image can be observed from multiple angles and checked by enlarging/reducing it. With such a configuration, for example, the three-dimensional image can be rotated and displayed so that the end face 305a, which faces the back side in FIG. 5, becomes the front side. It is also possible to enlarge and display the end face 305a.
グラフィカルユーザインターフェース140としては、例えば、スライダ145a、145bどうしの距離L1を保ったまま、2つのスライダ145a、145bを同時に動かすことができるようになっていることも一形態において好ましい。2つのスライダ145a、145bを同時に動かすことができるようにするためには、特別なアイコンを選択してそのようなモードにしてからスライダを動かすという手法も想定される。しかしながら、一例として、図6(a)のようにスライダ145a、145bが所定位置にある状態で、図6(b)のようにスライダ145a、145bどうしに挟まれた領域の任意の位置(例えばガイドライン145c付近)に触れて、上下に移動させることで、L1の距離を保ったまま2つのスライダ145a、145bを一緒に移動させることができるインターフェースとしてもよい。スライド145a、145bの移動に連動して三次元画像の表示領域もリアルタイムに変更される。このような構成によれば、個々のスライダ145a、145bを動かして一旦決定した距離L1を保ったまま、三次元画像の表示領域の変更が可能であるため、非常に簡単な操作で表示範囲の微調整を行うことができる。 As the graphical user interface 140, for example, it is preferable in one form that the two sliders 145a and 145b can be moved simultaneously while maintaining the distance L1 between the sliders 145a and 145b. In order to be able to move the two sliders 145a and 145b simultaneously, a method of selecting a special icon to set such a mode and then moving the sliders is also assumed. However, as an example, when the sliders 145a and 145b are in a predetermined position as shown in FIG. 6(a), an interface may be provided in which the two sliders 145a and 145b can be moved together while maintaining the distance L1 by touching any position (for example, near the guide line 145c) in the area between the sliders 145a and 145b as shown in FIG. 6(b) and moving it up and down. The display area of the three-dimensional image is also changed in real time in conjunction with the movement of the slides 145a and 145b. With this configuration, it is possible to change the display area of the three-dimensional image while maintaining the distance L1 that was once determined by moving the individual sliders 145a and 145b, so the display range can be fine-tuned with a very simple operation.
(3Dポインタ機能)
医用画像処理装置10は、3Dポインタ機能を有するものであってもよい。「3Dポインタ機能」とは、三次元画像のうちの所定のオブジェクトに三次元的なポインタを表示させる機能をいい、特には、そのポインタは移動させる際に当該オブジェクトの表面を沿うように移動するようになっているものをいう。図7、図8を参照しつつ、この機能について説明する。
(3D pointer function)
The medical image processing apparatus 10 may have a 3D pointer function. The "3D pointer function" refers to a function for displaying a three-dimensional pointer on a specific object in a three-dimensional image, and in particular, refers to a function for moving the pointer so as to follow the surface of the object. This function will be described with reference to Figs. 7 and 8.
図7に模式的に示す表示画面では、図2と同様、二次元画像200とそれに対応する三次元画像300とが表示されている。説明の都合上、三次元画像300は、血管のオブジェクト303′のみが表示された状態となっている。3Dポインタを表示するためのモードが選択された状態で、操作者が一例として二次元画像200における任意の点pを指定すると、それに対応する三次元画像300内の点Pに3Dポインタ161が表示される。3Dポインタ161の形状やサイズについては特に限定されるものではなく、立体的に表示された三次元画像の所定の位置を分かりやすく指し示すことができるものであれば、どのようなものであっても構わない。ポインタ161を表示させるための他の方式については、他の図面も参照しつつ後述するものとする。 In the display screen shown in FIG. 7, a two-dimensional image 200 and a corresponding three-dimensional image 300 are displayed, as in FIG. 2. For convenience of explanation, only a blood vessel object 303' is displayed in the three-dimensional image 300. When the operator designates an arbitrary point p in the two-dimensional image 200 in a state in which a mode for displaying a 3D pointer is selected, a 3D pointer 161 is displayed at a corresponding point P in the three-dimensional image 300. There are no particular limitations on the shape or size of the 3D pointer 161, and it may be any shape as long as it can clearly indicate a predetermined position in a three-dimensional image displayed stereoscopically. Other methods for displaying the pointer 161 will be described later with reference to other drawings.
三次元画像300内に表示された3Dポインタ161は、この時点で、複数のうちの1つのオブジェクト(ここでは血管のオブジェクト303′)に紐付けられており、同オブジェクト303′に接するように表示されている。このような3Dポインタ161においては、ポインタの移動に際して次のような課題が考えられる。すなわち、三次元空間内で3Dポインタ161を移動させる場合、通常、そのポインタは任意の方向に移動可能であるため、操作者がポインタを動かした際に、ポインタが対象のオブジェクトから離れていってしまうことも想定される。そこで、本実施形態では、3Dポインタ161を移動させる場合に、3Dポインタ161が対象のオブジェクト303′から離れることなく、そのオブジェクト303′の表面に沿って移動するように構成されている。 The 3D pointer 161 displayed in the three-dimensional image 300 is currently linked to one of the objects (here, the blood vessel object 303') and is displayed so as to be in contact with the object 303'. With such a 3D pointer 161, the following problem may arise when the pointer is moved. That is, when the 3D pointer 161 is moved in a three-dimensional space, the pointer can usually be moved in any direction, so it is expected that when the operator moves the pointer, the pointer may move away from the target object. Therefore, in this embodiment, the 3D pointer 161 is configured to move along the surface of the target object 303' without moving away from the object 303'.
3Dポインタ161をどのように動かすかに関しても、種々の手法を採用し得るが、例えば、次のようなものであってもよい。以下では、タッチパネルを介して操作者が指でポインタを操作する例を想定して説明するが、当然ながら、入力の形式はそれ以外のものであってもよい。図8に示すように、3Dポインタ161の第1の領域161aに触れて指を動かすと、3Dポインタ161は回動中心161pを基準として回動し、その向きが変わるようになっている。第1の領域161aとしては、ポインタ161の基端側の一部を含む領域であってもよい。一方、3Dポインタ161の第2の領域161bに触れて指を動かすと、ポインタ161全体を任意の方向に移動させることができるようになっている(ポインタの向きを保ったまま)。第2の領域161bとしては、ポインタの先端側の一部を含む領域であってもよい。こうした操作によって、3Dポインタ161の向きや位置を自由に変更することができる。 Various methods may be adopted for moving the 3D pointer 161, and may be, for example, the following. In the following, an example will be described in which an operator operates the pointer with a finger via a touch panel, but of course, the input format may be other than that. As shown in FIG. 8, when the operator touches the first region 161a of the 3D pointer 161 and moves the finger, the 3D pointer 161 rotates around the rotation center 161p and changes its orientation. The first region 161a may be a region including a part of the base end side of the pointer 161. On the other hand, when the operator touches the second region 161b of the 3D pointer 161 and moves the finger, the entire pointer 161 can be moved in any direction (while maintaining the orientation of the pointer). The second region 161b may be a region including a part of the tip side of the pointer. By such operations, the orientation and position of the 3D pointer 161 can be freely changed.
なお、3Dポインタ161は三次元空間内(画像表示領域101A)に表示されるものである。したがって、上下左右方向に加え、奥行き方向(一例)にも操作性よく移動させることができるようになっていることが好ましい。特に限定されるものではないが、一例として、複数本の指(三本指または四本指)の同時移動(例えば、上方もしくは下方、または、右もしくは左)によって3Dポインタ161を移動できるようになっていてもよい。また、他の観点として、3Dポインタ161それ自体を視差のある複数画像で表示し、表示画面内において立体視できるようにしてもよい。 The 3D pointer 161 is displayed in three-dimensional space (image display area 101A). Therefore, it is preferable that the pointer can be moved with ease not only in the up, down, left, and right directions, but also in the depth direction (one example). As an example, and not a particular limitation, the 3D pointer 161 may be moved by the simultaneous movement (e.g., upward or downward, or right or left) of multiple fingers (three or four fingers). As another viewpoint, the 3D pointer 161 itself may be displayed as multiple images with parallax, allowing it to be viewed stereoscopically on the display screen.
(バーチャルプローブ機能)
医用画像処理装置10は、バーチャルプローブ機能を有するものであってもよい。「バーチャルプローブ機能」とは、三次元画像に対して仮想的なプローブを配置し、その仮想プローブで撮像される仮想的な撮像画像を画面上に表示するというものである。図9を参照しつつ、この機能について説明する。
(Virtual probe function)
The medical image processing apparatus 10 may have a virtual probe function. The "virtual probe function" refers to placing a virtual probe in a three-dimensional image and displaying a virtual image captured by the virtual probe on the screen. This function will be described with reference to FIG. 9.
図9では、画像表示領域101Aに所定の三次元画像(一例で肝臓のオブジェクト305)が表示されている。このオブジェクト305に対して、仮想的なプローブ171が当接または近接した状態で表示されている。このプローブ171は、一例で、超音波診断装置の超音波プローブを表したものである。プローブ171の形状は、リニア型、コンベックス型、セクタ型、シングル型などのいずれであってもよく、また、二次元画像用プローブもしくは三次元画像用プローブのいずれであってもよい。 In FIG. 9, a specific three-dimensional image (liver object 305 in one example) is displayed in image display area 101A. A virtual probe 171 is displayed in contact with or close to this object 305. This probe 171 is one example that represents an ultrasound probe of an ultrasound diagnostic device. The shape of probe 171 may be any of linear, convex, sector, and single types, and may be either a probe for two-dimensional images or a probe for three-dimensional images.
プローブ171を含む撮像装置によって撮像されるであろう撮像画像が表示領域101Bに表示されている。ここでは超音波診断画像220が表示領域101Bに表示されている。このように、所定の三次元画像を対象とした仮想的な超音波診断画像220が表示される構成によれば、実際に被検者に対して撮像を行うことなく、対象のオブジェクト内の解剖学的構造体の形状や配置について確認することができるという利点がある。 An image that would be captured by an imaging device including a probe 171 is displayed in the display area 101B. Here, an ultrasound diagnostic image 220 is displayed in the display area 101B. This configuration in which a virtual ultrasound diagnostic image 220 targeting a specific three-dimensional image is displayed has the advantage that it is possible to confirm the shape and arrangement of anatomical structures within a target object without actually imaging the subject.
なお、図9の仮想的なプローブ171に関しても、その操作性が良好であることが望ましい。例えば、プローブ171の柄側の第1の領域171aに触れて動かすと、プローブ171は所定の回動中心を基準としてその向き(傾き)が変わるようになっていてもよい。また、プローブ171の先端側の第2の領域171bに触れて動かした場合には、プローブ171全体を移動させることができるようになっていてもよい。 It is also desirable that the virtual probe 171 in FIG. 9 is easy to operate. For example, when the first region 171a on the handle side of the probe 171 is touched and moved, the probe 171 may be configured to change its orientation (tilt) based on a predetermined rotation center. Also, when the second region 171b on the tip side of the probe 171 is touched and moved, the entire probe 171 may be moved.
仮想的なプローブ171の移動に関し、上述した3Dポインタ161と同様に、プローブ171が対象の三次元画像の表面に沿って動くように、移動が行われてもよい。 The movement of the virtual probe 171 may be performed in a manner similar to the 3D pointer 161 described above, such that the probe 171 moves along the surface of the three-dimensional image of the target.
(マージン球調整ユーザインターフェース)
医用画像処理装置10は、マージン球を調整するユーザインターフェースを有するものであってもよい。「マージン球」とは、三次元画像のうちの所定のオブジェクト(一例で、腫瘍のオブジェクト)を包囲する球体もしくは多面体のことをいい、このマージン球は、例えば、腫瘍切除の際に対象の腫瘍に対してどれくらいのマージンをもたせた領域を切除するかを確認するために利用されるものである。「マージン球調整ユーザインターフェース」とは、そのマージン球のサイズ等の変更を容易に行うためのユーザインターフェースである。図10、図11を参照しつつ、この機能について説明する。
(Margin sphere adjustment user interface)
The medical image processing device 10 may have a user interface for adjusting a margin sphere. The "margin sphere" refers to a sphere or polyhedron surrounding a specific object (for example, a tumor object) in a three-dimensional image, and this margin sphere is used, for example, to confirm how much margin of a tumor area is to be removed when the tumor is resected. The "margin sphere adjustment user interface" is a user interface for easily changing the size of the margin sphere, etc. This function will be described with reference to Figs. 10 and 11.
まず、マージン球について説明する。本実施形態の医療画像処理装置10は、一例として操作者からの所定の入力があった場合に、図10(a)に示すように、三次元画像内の腫瘍365を取り囲む最小の外接球377を表示する。「所定の入力」としては、特に限定されるものではないが、画面上に表示されたアイコンの選択や音声入力等であってもよいし、画面から離れた位置でのジェスチャ入力等であってもよい。そして、図10(b)に示すように、外接球377に対して所定のマージン(例えば1mm、2mm、3mm、4mm、5mm、10mm、15mmなど)を加えた一回り大きいマージン球378が表示される。このマージン球378は、一例として、外接球377と同心の球である。マージン球378に関しては、その内部が視認できるように、透過性をもたせた着色で表示されてもよい。なお、マージン球378のみを表示し外接球377は非表示としてもよい。 First, the margin sphere will be described. When a predetermined input is received from the operator, the medical image processing device 10 of this embodiment displays the smallest circumscribing sphere 377 surrounding the tumor 365 in the three-dimensional image, as shown in FIG. 10(a). The "predetermined input" is not particularly limited, but may be the selection of an icon displayed on the screen, voice input, or gesture input at a position away from the screen. Then, as shown in FIG. 10(b), a margin sphere 378 that is one size larger than the circumscribing sphere 377 and has a predetermined margin (for example, 1 mm, 2 mm, 3 mm, 4 mm, 5 mm, 10 mm, 15 mm, etc.) added thereto is displayed. As an example, this margin sphere 378 is a sphere concentric with the circumscribing sphere 377. The margin sphere 378 may be displayed in a transparent color so that its inside can be seen. It is also possible to display only the margin sphere 378 and not display the circumscribing sphere 377.
マージンの値については、腫瘍除去のための手技や対象となる臓器等によって適切な値が異なるため、操作者が所望の値を設定できる構成となっていることが好ましく、例えば数値の入力および/または画面上のユーザインターフェースの操作でこの値を入力・変更できる構成としてもよい。具体的なユーザインターフェースの例については図11を参照しながら後述する。 The appropriate margin value varies depending on the tumor removal procedure and the target organ, so it is preferable that the operator be able to set the desired value. For example, the value may be input and changed by inputting a numerical value and/or by operating an on-screen user interface. A specific example of the user interface will be described later with reference to FIG. 11.
なお、図10(b)に示すように、マージン球378が、例えば近接する主要な血管353bに接していた場合、医療画像処理装置10は、その旨の警告表示を表示する、および/または、その血管部分を強調表示するように構成されていてもよい。血管353bは、マージン球378が接する部分(その近傍をも含んでよい)を強調表示するものであってもよいし、または、血管353bの起始部から先端部までのすべてを強調表示するものであってもよい。このような構成によれば、腫瘍365の除去に際してどの血管の切除が必要となるのかを事前に確認することができるため有利である(血管353のうち符号353aで示す部分等は切除の必要はない)。 As shown in FIG. 10(b), if the margin sphere 378 is in contact with, for example, a nearby major blood vessel 353b, the medical image processing device 10 may be configured to display a warning to that effect and/or highlight the blood vessel portion. The blood vessel 353b may be highlighted at the portion where the margin sphere 378 is in contact (which may include the vicinity thereof), or the entire blood vessel 353b from its origin to its tip. This configuration is advantageous because it allows confirmation in advance of which blood vessels will need to be resected when removing the tumor 365 (the portion of the blood vessel 353 indicated by the reference symbol 353a does not need to be resected).
また、図10(b)の例のように、マージン球378が何らかの解剖学的構造体に接している場合、マージン球378の内部に含まれる解剖学的構造体(限定されるものではないが、例えば肝臓などの実質臓器であってもよい)のマスクの自動分離が行われるようになっていてもよいし、内部に含まれる容積が計算され必要に応じて容積量が表示されるようになっていてもよい。容積量に関しては、1つのマージン球はなく、複数のマージン球のそれぞれに包含される容積の総和が求められるようになっていてもよい。 Also, as in the example of FIG. 10(b), when the margin sphere 378 is in contact with some anatomical structure, the mask of the anatomical structure (which may be, but is not limited to, a solid organ such as the liver) contained within the margin sphere 378 may be automatically separated, and the volume contained within may be calculated and the amount of volume may be displayed as necessary. Regarding the amount of volume, instead of a single margin sphere, the sum of the volumes contained within multiple margin spheres may be calculated.
マージン球378のサイズを変更するために図11のようなユーザインターフェース150を採用してもよい。このユーザインターフェース150は、マージンの長さを設定するためのスライダ156を含んでいる。スライダ156は、この例では、0mm~20mm(一例)程度の範囲でスライド移動可能となっており、横軸に沿って移動できるように構成されている。なお、横軸の数値はマージンの長さを示しているが、このような表示は必須ではない。 A user interface 150 as shown in FIG. 11 may be employed to change the size of the margin sphere 378. This user interface 150 includes a slider 156 for setting the margin length. In this example, the slider 156 can be slid within a range of approximately 0 mm to 20 mm (as an example), and is configured to be able to move along the horizontal axis. Note that the numbers on the horizontal axis indicate the margin length, but such a display is not essential.
スライダ156が「0」の位置にあるとき、マージンの長さは0ということになり、上記の例で言えば外接球377のみが表示されることとなる。スライダ156を移動させることで、スライダ位置に応じた数値がマージンの長さとして設定される。三次元画像内のマージン球378の大きさがリアルタイムに変更されてもよい。このようなグラフィカルユーザインターフェース150によれば、マージン球378のサイズを非常に直感的かつ即座に変更することができ、また、三次元画像において腫瘍365とマージン球378の関係を確認することもできるので、精度の高い手術の実施に寄与することができる。 When the slider 156 is at the "0" position, the margin length is 0, and in the above example, only the circumscribed sphere 377 is displayed. By moving the slider 156, a numerical value according to the slider position is set as the margin length. The size of the margin sphere 378 in the three-dimensional image may be changed in real time. Such a graphical user interface 150 allows the size of the margin sphere 378 to be changed very intuitively and instantly, and also allows the relationship between the tumor 365 and the margin sphere 378 to be confirmed in the three-dimensional image, which contributes to the implementation of highly accurate surgery.
ユーザインターフェース150は、マージンの長さを表す情報が表示領域151内に大きく数字として表示されてもよい。具体的には、図示の例では表示領域151内に「10」の数字が表示されるようなものであってもよい。このような構成によれば、操作者に具体的な設定数値の情報を視認性良く提供することができる。 The user interface 150 may display information indicating the length of the margin as a large number in the display area 151. Specifically, in the illustrated example, the number "10" may be displayed in the display area 151. With this configuration, it is possible to provide the operator with information on the specific set numerical value with good visibility.
また、ユーザインターフェース150は、縦軸の数値と横軸の数値とを接続するように同心円弧状の複数のサイズインジケータ159を含むものであってもよい。また、現在の設定数値を視覚的に把握しやすいように、複数のサイズインジケータ159のうち、スライダ156の位置に対応した、現在のマージン長さを表すインジケータ159のみが強調表示されるようになっていてもよい。例えばこの例では、「0」から「10」までの範囲に存在するインジケータ159が他よりも太く表示されている。 The user interface 150 may also include multiple size indicators 159 in the form of concentric arcs that connect the values on the vertical axis and the horizontal axis. Also, to make it easier to visually grasp the current setting value, among the multiple size indicators 159, only the indicator 159 that indicates the current margin length and corresponds to the position of the slider 156 may be highlighted. For example, in this example, the indicators 159 that exist in the range from "0" to "10" are displayed thicker than the others.
ユーザインターフェース150は、スライダ156を介した数値入力ではなく、プリセットされた値を選択することで所定の数値が入力されるものであってもよい。図11の例では、縦軸にプリセット値として、「0」mm、「10」mm、「20」mm(一例)のプリセット値表示部157が表示されている。これらのいずれかを選択すると、それに応じたマージンの長さが設定されるようになっていてもよい。なお、当然ながら、上記の数値やプリセット数はあくまで一例であり、適宜変更可能である。 The user interface 150 may be one in which a specific numerical value is input by selecting a preset value, rather than inputting a numerical value via a slider 156. In the example of FIG. 11, a preset value display section 157 displays "0" mm, "10" mm, and "20" mm (one example) as preset values on the vertical axis. When any of these is selected, the corresponding margin length may be set. It should be noted that the above numerical values and preset numbers are, of course, merely examples and can be changed as appropriate.
ユーザインターフェース150の態様として、スライダ156は横軸に沿って無段階的に移動するものであってもよいし、「1」、「2」、「3」、「4」、「5」mmのように離散値に対応して段階的に移動するものであってもよい。図11のユーザインターフェース150は、表示画面上の任意の位置に表示可能であるが、一例として表示領域101A内に表示されるものであってもよい。 As an embodiment of the user interface 150, the slider 156 may move continuously along the horizontal axis, or may move in steps corresponding to discrete values such as "1", "2", "3", "4", and "5" mm. The user interface 150 in FIG. 11 can be displayed at any position on the display screen, but as an example, it may be displayed within the display area 101A.
(透過度変更用ユーザインターフェース)
医用画像処理装置10は、オブジェクトの透過度を変更するための透過度変更用ユーザインターフェースを有するものであってもよい。「オブジェクトの透過度」とは、三次元画像に含まれる解剖学的構造体の個々のオブジェクトの透過度をいい、オブジェクトの透過度が調整可能となっていることで、例えば操作者から見て手前側に表示されるオブジェクトを半透明表示としつつ、奥側の他のオブジェクトを観察するといったことが可能となる。図12を参照しつつユーザインターフェースについて説明する。
(User interface for changing transparency)
The medical image processing apparatus 10 may have a user interface for changing the transparency of an object. The "transparency of an object" refers to the transparency of each object of an anatomical structure included in a three-dimensional image, and the transparency of the object can be adjusted, so that, for example, an object displayed in the foreground as viewed from the operator can be displayed semi-transparently while another object in the background can be observed. The user interface will be described with reference to FIG. 12.
図12に示すように、このユーザインターフェース170は、円軌道173に沿ってスライド移動するスライダ177を含んでおり、操作者がこのスライダ177を動かすことにより、オブジェクトの透過度が変更されるようになっている。透過度の範囲は、0%~100%であってもよいが、これに限らず任意の数値範囲としてもよい。円軌道173の始点173aが0%に対応し、終点173bが100%に対応するものであってもよい。円軌道173は、閉じた円ではなく、扇形の中心角が180°以上360°未満、より具体的には270°以上360°未満(一例)となるような範囲にわたるものであってもよい。もっとも、完全に閉じた円軌道とし、スライダ177を360°以上回転させることができる態様としてもよい。現在の透過度を識別しやすいように、始点173aからスライダ177の位置までが強調表示174されるようになっていてもよい。 As shown in FIG. 12, the user interface 170 includes a slider 177 that slides along a circular orbit 173, and the operator moves the slider 177 to change the transparency of the object. The transparency may range from 0% to 100%, but is not limited to this and may be any numerical range. The start point 173a of the circular orbit 173 may correspond to 0%, and the end point 173b may correspond to 100%. The circular orbit 173 may not be a closed circle, but may extend over a range in which the central angle of the sector is 180° or more and less than 360°, more specifically, 270° or more and less than 360° (as an example). However, a completely closed circular orbit may be used in which the slider 177 can be rotated 360° or more. In order to make it easy to identify the current transparency, a highlight 174 may be displayed from the start point 173a to the position of the slider 177.
図12のようなユーザインターフェース160によれば、次の理由から、画面上のコンパクトなスペースであっても高精度に透過度を変更できるものとなる。すなわち、透過度変更のためのユーザインターフェースとしては、例えばスライダを直線的に往復移動させる構成(不図示)も採用可能である。しかしながら、タッチパネル操作においては、直線的なスライダ移動のためには操作者は手を上下または左右(一例)に動かす必要があり比較的大きなモーションが必要なる。一方、図12のような構成の場合、例えば、手は大きく動かさず人指し指でスライダ177に触れて回すだけで、スライダ177を十分な距離動かすことができる。つまり、手を大きく動かす必要がなく、また、直線的な移動と比較して指の動きによる細かい入力も可能となり得るので、透過度の微調整が行い易いという技術的な利点も奏される。 According to the user interface 160 as shown in FIG. 12, the transparency can be changed with high precision even in a compact space on the screen for the following reasons. That is, as a user interface for changing the transparency, for example, a configuration (not shown) in which a slider is moved back and forth linearly can be adopted. However, in touch panel operation, the operator needs to move his/her hand up and down or left and right (one example) to move the slider linearly, which requires a relatively large motion. On the other hand, in the case of the configuration as shown in FIG. 12, for example, the slider 177 can be moved a sufficient distance by simply touching and rotating the slider 177 with the index finger without moving the hand much. In other words, there is no need to move the hand much, and more detailed input can be made by moving the finger compared to linear movement, so there is also a technical advantage that fine adjustment of the transparency can be easily performed.
図12のユーザインターフェース170は、表示画面上の任意の位置に表示可能であるが、一例として表示領域101A内に表示されるものであってもよい。 The user interface 170 in FIG. 12 can be displayed at any position on the display screen, but as an example, it may be displayed within the display area 101A.
(焼灼法または凍結法における凝固範囲シミュレーション機能)
医用画像処理装置10は、被検者の対象部位において凝固範囲をシミュレーションする機能を有するものであってもよい。「凝固範囲シミュレーション機能」とは、例えば、電極針を用いた焼灼法で被検者の対象部位を焼灼切除する際に、どの程度の範囲が凝固することとなるかをシミュレーションする機能である(焼灼に限らず凍結法の場合にも適用か可能である)。図13を参照しつつ、焼灼の場合を例として説明する。
(Coagulation range simulation function for cauterization or cryotherapy)
The medical image processing device 10 may have a function of simulating the coagulation range in a target part of a subject. The "coagulation range simulation function" is, for example, a function of simulating the extent to which coagulation will occur when a target part of a subject is cauterized and resected by a cauterization method using an electrode needle (this function can be applied not only to cauterization but also to a freezing method). An example of cauterization will be described with reference to FIG. 13.
腫瘍およびその周辺部を壊死させるための経皮的局所療法として、例えば、電極針やプローブから被検者の対象部位にエネルギーを印加し、それにより細胞組織を焼灼して凝固壊死させる手法がある。電極針等のからのエネルギーの印加により、どれくらいの領域が焼灼対象となるかは、電極針の形状やデバイスの性能等に依存する。 One percutaneous local therapy for necrotizing a tumor and its surrounding area involves applying energy to the target area of the subject from an electrode needle or probe, thereby cauterizing the cellular tissue and causing coagulation necrosis. The extent to which an area is cauterized by the application of energy from an electrode needle or the like depends on the shape of the electrode needle, the performance of the device, etc.
図13は電極針の違いによる凝固範囲の相違を模式的に示したものである。図13(a)は、ある電極針を仮想的に表したプローブ190aを示しており、このプローブを被検者の対象領域に穿刺して使用した場合に、領域195aが凝固壊死することを示している。図13(b)は、他の電極針を表したプローブ190bを示しており、使用時には領域195bが凝固壊死することを示している。図13(c)は、さらに他の電極針を表したプローブ190cを示しており、領域195cが凝固壊死することを示している。 Figure 13 is a schematic diagram showing the difference in the coagulation range due to different electrode needles. Figure 13(a) shows probe 190a, which is a virtual representation of a certain electrode needle, and shows that when this probe is inserted into the target area of a subject and used, area 195a undergoes coagulation necrosis. Figure 13(b) shows probe 190b, which is a different electrode needle, and shows that area 195b undergoes coagulation necrosis when used. Figure 13(c) shows probe 190c, which is yet another electrode needle, and shows that area 195c undergoes coagulation necrosis.
なお、凝固範囲は、時間の関数として捉えることもできる。したがって、プローブの焼灼時間をシミュレーションしたり、時間に対応させて領域球体を徐々に大きくしていくような表示態様としたりしてもよい。焼灼に限らず凍結の場合にも当該手法を応用してもよい。本実施形態においては、このように、医用画像処理装置10が各プローブの凝固特性の情報を有しており、例えば三次元医用画像の所定の解剖学的構造体に対して仮想的にプローブを穿刺し、エネルギーを印加した際に、凝固範囲をシミュレーションすることができるように構成されていてもよい。 The coagulation range can also be viewed as a function of time. Therefore, the probe cauterization time can be simulated, or the display can be such that the area sphere is gradually enlarged in response to time. This method can also be applied to freezing, not just cauterization. In this embodiment, the medical image processing device 10 thus has information on the coagulation characteristics of each probe, and can be configured to, for example, virtually puncture a specific anatomical structure in a three-dimensional medical image with a probe and simulate the coagulation range when energy is applied.
プローブの穿刺に関し、一例として、プローブを穿刺する際のルート(すなわち、プローブをどのようなルートで穿刺すべきか、もしくは、どのようなルートで穿刺しないべきか)のシミュレーション機能が備わっていてもよい。例えば、プローブが穿刺されるルート上に血管のような回避対象となる所定の解剖学的構造体が存在している場合に、装置がそれを判定しアラートを発する(メッセージの表示、警告音を出す等)、および/または、ルートの自動回避がなされる構成としてもよい。限定されるものではないが、アラートとしては、所定の対象物(例えば画面上の表示)の着色や点滅といった強調表示であってもよい。 As an example of a probe puncture, the device may be provided with a simulation function for the route when the probe is inserted (i.e., which route the probe should insert, or which route it should not insert). For example, if a specific anatomical structure to be avoided, such as a blood vessel, is present on the route along which the probe is inserted, the device may determine this and issue an alert (display a message, issue a warning sound, etc.) and/or automatically avoid the route. Although not limited to this, the alert may be a highlighting of a specific object (e.g., a display on a screen) by coloring or blinking.
所定の対象部位を複数のプローブを用いて(あるいは複数回のプローブ穿刺により)凝固壊死させる場合も想定されることから、複数回の場合に対応した範囲のシミュレーションを行えるようになっていることも好ましい。また、例えば腫瘍が複数箇所に存在していたり広範だったりする場合には、数回に分けて(別日で)処置が行われることもある。また、後日追加で処置が必要になることもある。このように、焼灼法や凍結法においては必ずしも一度の処置ではなく異なる日に複数回の処置が必要になることも想定されるため、凝固範囲のシミュレーション結果を保存する、および/または、外部機器に出力できるようになっていることも好ましい(時間情報、被験者情報、手術情報、装置使用者情報などが含まれていてもよい)。そのようなデータを必要に応じて呼び出し、シミュレーションの継続(例えば追加プローブのシミュレーションを実施)を行うことができる構成としてもよい。 Since it is assumed that a given target site may be coagulated and necrotized using multiple probes (or by multiple probe punctures), it is preferable to be able to perform a simulation of a range corresponding to multiple cases. Also, for example, if a tumor is present in multiple locations or is widespread, the treatment may be performed in several separate sessions (on different days). Also, additional treatment may be required at a later date. In this way, it is assumed that the cauterization method and freezing method may require multiple treatments on different days rather than a single treatment, so it is preferable to be able to save the simulation results of the coagulation range and/or output them to an external device (time information, subject information, surgery information, device user information, etc. may be included). Such data may be called up as necessary to continue the simulation (for example, to perform a simulation of an additional probe).
また、医用画像としては、CT装置の画像データに基づいて生成されたものや、MR装置の画像データに基づいて生成されたものなどがある。同じ被検者であっても、施術の目的や検査内容によって、異なるモダリティのデータが使用されることがある(例えば、最初はCT装置のデータに基づく画像を用い、必要に応じMR装置のデータに基づく画像を用いる等)。こうした場合においても、一貫的にシミュレーションを行えるように、例えば第1のモダリティ(一例でCT装置)のデータに基づく医用画像と、第2のモダリティ(一例でMR装置)のデータに基づく医用画像とが入れ替え可能および/または重畳表示(オーバーレイ)可能であることも一形態において好ましい。1回のシミュレーション作業の中での入替えに限らず、事後的に画像の入替え等ができるようになっていてもよい(例えば、後日画像を入れ替える等)。異なるモダリティの画像どうしを、自動でまたは手動で、位置合わせできるようになっていてもよい。上述のような画像データの入替えは、種々のシミュレーションを可能にするという点で有用であるが、必ずしも異なるモダリティの画像を入れ替えるのではなく、例えば同じ撮像装置(例えばCT装置)の画像データに基づく医用画像であっても、比較的低精細なデータのもの(本番の撮像前に確認用として厚めのスライス厚で撮像されたデータ等)と、精細なデータのものとを入替え可能となっていてもよい。 In addition, medical images include those generated based on image data from a CT device and those generated based on image data from an MR device. Even for the same subject, data from different modalities may be used depending on the purpose of the treatment and the contents of the examination (for example, an image based on data from a CT device is used first, and an image based on data from an MR device is used as necessary). In such a case, it is also preferable in one embodiment that medical images based on data from a first modality (for example, a CT device) and medical images based on data from a second modality (for example, an MR device) can be replaced and/or superimposed (overlayed) so that simulation can be performed consistently. Images may be replaced not only during one simulation operation, but also after the fact (for example, images may be replaced at a later date). Images of different modalities may be aligned automatically or manually. The above-mentioned image data replacement is useful in that it enables various simulations, but it does not necessarily replace images of different modalities. For example, even if the medical images are based on image data from the same imaging device (e.g., a CT device), it may be possible to replace relatively low-resolution data (such as data captured with a thick slice thickness for confirmation before the actual imaging) with high-resolution data.
(装置使用状況のキャプチャ機能)
医用画像処理装置10は、装置の使用状況をキャプチャして保存する機能を有するものであってもよい。この機能は、主として、被検者に対する施術を行っている最中に実際に医用画像処理装置10が使用されたこと、および/または、その内容に関する情報を保存しておくためのものである。このように、装置の使用状況に関する情報が保存される構成によれば、当該情報を診療報酬等の決定に利用することが可能となる。
(Capture function for device usage status)
The medical image processing apparatus 10 may have a function of capturing and storing the usage status of the apparatus. This function is mainly for storing information on the fact that the medical image processing apparatus 10 was actually used during the treatment of the subject and/or the details of the treatment. In this way, with a configuration in which information on the usage status of the apparatus is stored, the information can be used to determine medical fees, etc.
使用状況に関する情報は、医用画像処理装置10の内部(データ格納部12等)に記憶されてもよいし、外部に送信されて例えば医用情報管理装置21(図1参照)に記憶されてもよい。 Information regarding the usage status may be stored inside the medical image processing device 10 (such as the data storage unit 12), or may be transmitted externally and stored, for example, in the medical information management device 21 (see Figure 1).
使用状況に関する情報としては、例えば、被検者の識別情報、手術を行った日時情報(時刻)、手術の時間情報、装置の使用時間情報、表示された三次元画像のスクリーンショット画像、表示された二次元画像のスクリーンショット画像、医師その他の医療従事者情報、造影剤注入器情報、造影剤情報、造影プロトコル情報等のうち少なくとも1つまたは組合せであってもよい。時刻や時間に関わる情報は、スクリーンショット画像に埋め込まれた態様でキャプチャされる構成としてもよい。限定されるものではないがスクリーンショット画像については、二次元画像のみ、三次元画像のみ、またはそれらの組合せを任意に選択できるようにしてもよい。 The information relating to the usage status may be, for example, at least one or a combination of the subject's identification information, date and time information (time) when the surgery was performed, surgery duration information, device usage time information, a screenshot image of the displayed 3D image, a screenshot image of the displayed 2D image, doctor or other medical staff information, contrast agent injector information, contrast agent information, contrast protocol information, etc. The time and time-related information may be captured in a manner embedded in the screenshot image. Although not limited to this, the screenshot image may be able to be selected arbitrarily from 2D images only, 3D images only, or a combination thereof.
使用状況に関する情報を取得するタイミングとしては、所定の時間間隔ごとに取得したり、所定の時刻に取得したりするようなものであってもよいが、次のようなタイミングとしてもよい。すなわち、医用画像処理装置10を使用している状態(例えば手術中に三次元画像を観察する場合等)で、一定時間以上、操作者からの入力がなされなかった場合に、装置が自動的に使用状況に関する所定の情報を取得し、保存もしくは外部送信するように構成されていてもよい。この際、情報取得タイミングに関連付けられたタイムスタンプ情報が付与されるようになっていてもよい。具体的には、対象の電子情報(一例で画像データ)のハッシュ値と、タイムスタンプ局が発行した正確な時刻情報とに、タイムスタンプ局の電子署名を付与したものであってもよい。こうしたタイムスタンプの付与により、その時刻に当該電子情報が存在したこと(存在証明)が確認でき、また、事後的な非改ざん証明も可能となる。 The timing of acquiring information on the usage status may be at a predetermined time interval or at a predetermined time, but may also be the following timing. That is, when the medical image processing device 10 is being used (for example, when observing a three-dimensional image during surgery, etc.), if there is no input from the operator for a certain period of time or more, the device may be configured to automatically acquire and store or transmit to the outside predetermined information on the usage status. In this case, time stamp information associated with the information acquisition timing may be added. Specifically, the hash value of the target electronic information (image data as an example) and the accurate time information issued by the time stamp authority may be added with the electronic signature of the time stamp authority. By adding such a time stamp, it is possible to confirm that the electronic information existed at that time (proof of existence), and also to make it possible to prove non-tampering after the fact.
(タイマー機能)
医用画像処理装置10は、手術時間を計測するためのタイマー機能を有するものであってもよい。例えば肝臓癌の手術などでは、出血を抑えるために鉗子等を用いて肝臓に流入する血行を一時的に遮断するプリングル法と呼ばれる手法が用いられることもある。この場合、血行を遮断している時間(あるいは遮断されていない時間)を正確に計測、管理することが重要となる。そこで、医用画像処理装置10は、例えば、血行が遮断されている時間をタイマー表示し、所定の規定時間が経過した場合にアラーム音および/またはアラート表示をするように構成されていてもよい。同様に、血行が遮断されていない時間についてタイマー表示され、アラーム音および/またはアラート表示をするように構成されていてもよい。このように弛緩時および/または遮断時の時間をタイマーによって確認可能な構成によればより安全な施術が可能となる。限定されるものではないが、弛緩時のタイマー機能に関しては安全状態であること認識できるように第1の表示色(例えばグリーン)での表示および/または第1の音を発するようにし、他方、遮断時は第2の表示色(例えばレッド)での表示および/または第2の音(遮断状態を知らせるためのもの)を発するようにしてもよい。遮断時のタイマー機能については、さらに、延長機能が備わっていてもよく、例えば、1分、2分、3分のようにプリセットされた値から選択できる構成としてもよいし、任意の延長時間を数値入力できる構成としてもよい。医用画像処置装置10は、血行が遮断されている時間については、操作禁止の状態または操作がリジェクトされる状態になるように構成されていてもよい。血行遮断時のタイマーが機能している状態で操作が禁止される構成によれば、タイマーの時間を意図せず変えてしまったりリセットしてしまったりすることが防止され、正確な時間計測が行われるものとなる。
(Timer function)
The medical image processing device 10 may have a timer function for measuring the operation time. For example, in a liver cancer operation, a method called the Pringle method is sometimes used, in which forceps or the like are used to temporarily block the blood flowing into the liver in order to suppress bleeding. In this case, it is important to accurately measure and manage the time during which the blood flow is blocked (or the time during which it is not blocked). Therefore, the medical image processing device 10 may be configured, for example, to display the time during which the blood flow is blocked using a timer, and to sound an alarm and/or display an alert when a predetermined specified time has elapsed. Similarly, the time during which the blood flow is not blocked may be displayed using a timer, and to sound an alarm and/or display an alert. In this way, a configuration in which the time during relaxation and/or blocking can be confirmed by a timer allows for safer treatment. Although not limited to this, the timer function during relaxation may be configured to display a first display color (e.g., green) and/or emit a first sound so that a safe state can be recognized, and on the other hand, during blocking, a display in a second display color (e.g., red) and/or emit a second sound (to inform of the blocking state) may be displayed. The timer function during blockage may further include an extension function, for example, a configuration in which a preset value such as 1 minute, 2 minutes, or 3 minutes can be selected, or an arbitrary extension time can be inputted numerically. The medical image processing device 10 may be configured so that operations are prohibited or rejected during the time when blood circulation is blocked. If operations are prohibited while the timer during blood circulation is functioning, unintentional changes or resetting of the timer is prevented, and accurate time measurement is performed.
(種々の入力方式)
タブレット端末のようにタッチパネルを介した入力が主となる装置においては、操作性がよく直感的な入力ができるようになっていることが望ましい。本実施形態の医用画像処理装置10では、例えば三次元画像の所定位置にポインタ(カーソル、矢印)を表示する機能が備わっていてもよい。この場合、カーソルを表示するために、図14に示すような入力方式が利用可能であってもよい。
(Various input methods)
In a device such as a tablet terminal where input is mainly performed via a touch panel, it is desirable to provide an easy-to-operate and intuitive input. The medical image processing device 10 of this embodiment may have a function for displaying a pointer (cursor, arrow) at a predetermined position of a three-dimensional image, for example. In this case, an input method such as that shown in FIG. 14 may be used to display the cursor.
まず、図14に示すように、画面上の2点(P1、P2)を選択する。例えば、親指と人差し指で2点をタッチするといった選択であってもよい。医用画像処理装置10は、操作者によるこの2点(P1、P2)の入力を受け付け、各点の座標を特定する。続いて、一例で、操作者は、親指は最初にタッチした位置のまま、人差し指を点P2から点P2′へとスライド移動させる。医用画像処理装置10は、このように、(i)2点P1、P2が選択され、続いて、(ii)2点間の距離が長くなるような向きで、一方の点は固定のまま、他方の点を移動させる入力があった場合に、それをトリガとしてポインタ161(図15参照)を表示するように構成されていてもよい。ポインタ161では、固定側の点P1が矢印の先端側となり、反対側の点P2′が矢印の後端側となっている。例えば、画像表示領域101Aおよび/または画像表示領域101Bにおいてこのような入力が行なわれた場合に、矢印161が表示されるようになっていてもよく、当該入力方式によれば、矢印を表示するためのモードを予め選択する(一例で専用のアイコンにタッチする等)といった操作を要することなく、表示画面上でダイレクトに上記入力を行うことでポインタの表示を容易に行うことができる。 First, as shown in FIG. 14, two points (P1, P2) on the screen are selected. For example, the selection may be made by touching the two points with the thumb and index finger. The medical image processing device 10 accepts the input of the two points (P1, P2) by the operator and specifies the coordinates of each point. Next, in one example, the operator slides the index finger from point P2 to point P2' while keeping the thumb at the position where it was initially touched. The medical image processing device 10 may be configured to display a pointer 161 (see FIG. 15) using the input as a trigger when (i) two points P1 and P2 are selected, and then (ii) there is an input to move one point while keeping one point fixed in a direction that increases the distance between the two points. In the pointer 161, the fixed point P1 is the tip side of the arrow, and the opposite point P2' is the rear end side of the arrow. For example, when such an input is made in image display area 101A and/or image display area 101B, an arrow 161 may be displayed, and this input method makes it possible to easily display the pointer by making the above input directly on the display screen, without the need to previously select a mode for displaying the arrow (such as by touching a dedicated icon, for example).
医用画像処理装置10においては、例えば三次元画像の一部を円形領域として選択できるようになっていることも好ましい。この場合、円形領域の指定のために、図16に示すような入力方式が利用可能であってもよい。 In the medical image processing device 10, it is also preferable that, for example, a part of a three-dimensional image can be selected as a circular region. In this case, an input method such as that shown in FIG. 16 may be available for specifying the circular region.
まず、図16(a)に示すように、画面上の2点(P11、P12)を選択する。例えば、親指と人差し指で2点をタッチする選択であってもよい。医用画像処理装置10は、操作者によるこの2点P11、P12の入力を受け付け、各点の座標を特定する。続いて、操作者は、親指と人差し指とを、点oまわりにコンパスのように円弧状に同時にスライド移動させる。医用画像処理装置10は、このような入力を検出した場合に、図16(b)に示すように、点oを中心とし、P11、P12の距離を直径とする円198を表示するように構成されていてもよい。このような入力方式によれば、2点の選択と、それらを回転させる動作との2ステップのみで円形領域の選択を行うことができる。 First, as shown in FIG. 16(a), two points (P11, P12) on the screen are selected. For example, the selection may be made by touching the two points with the thumb and index finger. The medical image processing device 10 accepts the input of the two points P11, P12 by the operator and identifies the coordinates of each point. Next, the operator simultaneously slides the thumb and index finger in an arc around the point o like a compass. When such an input is detected, the medical image processing device 10 may be configured to display a circle 198 with the point o as the center and the distance between P11 and P12 as the diameter, as shown in FIG. 16(b). According to this input method, a circular area can be selected in only two steps: selecting the two points and rotating them.
以上、本発明の実施の形態について具体的な図面を参照しながら説明したが、本発明は上記の具体的な構成に限定されるものではなく、発明の趣旨を逸脱しない範囲で適宜変更可能である。また、異なる技術的特徴どうしを適宜組み合せることも可能である。例えば物の発明として開示された内容は、方法、プログラムまたはプログラム媒体の発明として理解され得る。 Although the embodiment of the present invention has been described above with reference to specific drawings, the present invention is not limited to the above specific configuration, and can be modified as appropriate without departing from the spirit of the invention. In addition, different technical features can be combined as appropriate. For example, the content disclosed as an invention of a product can be understood as an invention of a method, a program, or a program medium.
(付記)
本出願は、以下の内容を開示する。括弧内の符号は参考として付したものであり、本発明を所定の実施形態に限定することを意図したものではない。
A1.被検者の解剖学的構造体を表す三次元画像(300)の表示を制御する表示制御部(11)を備える医用画像処理装置(10)であって、
上記表示制御部(11)は、
a1:上記三次元画像(300)の表示範囲を規定するためのグラフィカルユーザインターフェース(140)を含む画像を生成する処理であって、当該グラフィカルユーザインターフェース(140)は、
三次元空間内における所定の基準軸(例えばx軸)に沿った上記三次元画像の一方の側の切断基準面(例えば305a)を規定するための第1のスライダ(145a)と、
上記所定の基準軸(例えばx軸)に沿った上記三次元画像の他方の側の切断基準面(例えば300b)を規定するための第2のスライダ(145b)と、
を含むものである、画像生成処理と、
a2:上記切断基準面どうしの間に存在する上記三次元画像(300)を表示する処理と、
を行うように構成されている、医用画像処理装置。
(Additional Note)
This application discloses the following: The reference symbols in parentheses are provided for reference purposes only and are not intended to limit the present invention to the specific embodiments.
A medical image processing device (10) including a display control unit (11) for controlling the display of a three-dimensional image (300) representing an anatomical structure of a subject,
The display control unit (11)
a1: a process for generating an image including a graphical user interface (140) for defining a display range of the three-dimensional image (300), the graphical user interface (140) comprising:
a first slider (145a) for defining a cutting reference plane (e.g., 305a) on one side of the three-dimensional image along a given reference axis (e.g., x-axis) in three-dimensional space;
a second slider (145b) for defining a cutting reference plane (e.g. 300b) on the other side of the three-dimensional image along the predetermined reference axis (e.g. x-axis);
An image generation process comprising:
a2: a process of displaying the three-dimensional image (300) existing between the cutting reference planes;
13. A medical image processing device configured to:
被検者の解剖学的構造体を表す三次元画像を表示する医用画像処理装置の制御方法であって、
a1:前記三次元画像の表示範囲を規定するためのグラフィカルユーザインターフェースを含む画像を生成するステップであって、当該グラフィカルユーザインターフェースは、
三次元空間内における所定の基準軸に沿った前記三次元画像の一方の側の切断基準面を規定するための第1のスライダと、
前記所定の基準軸に沿った前記三次元画像の他方の側の切断基準面を特定するための第2のスライダと、
を含むものである、生成ステップと、
a2:前記切断基準面どうしの間に存在する前記三次元画像を表示させるステップと、
を含む、医用画像処理装置の制御方法。
1. A method for controlling a medical image processing device that displays a three-dimensional image representing an anatomical structure of a subject, comprising:
a1: generating an image including a graphical user interface for defining a display range of the three-dimensional image, the graphical user interface comprising:
a first slider for defining a cutting reference plane on one side of the three-dimensional image along a predetermined reference axis in three-dimensional space;
a second slider for identifying a cutting reference plane on the other side of the three-dimensional image along the predetermined reference axis;
a generating step,
a2: displaying the three-dimensional image existing between the cutting reference planes;
A method for controlling a medical image processing device, comprising:
被検者の解剖学的構造体を表す三次元画像を表示する医用画像処理プログラムであって、1つまたは複数のコンピュータに、
a1:前記三次元画像の表示範囲を規定するためのグラフィカルユーザインターフェースを含む画像を生成するステップであって、当該グラフィカルユーザインターフェースは、
三次元空間内における所定の基準軸に沿った前記三次元画像の一方の側の切断基準面を規定するための第1のスライダと、
前記所定の基準軸に沿った前記三次元画像の他方の側の切断基準面を特定するための第2のスライダと、
を含むものである、生成ステップと、
a2:前記切断基準面どうしの間に存在する前記三次元画像を表示させるステップと、
を行わせる、医用画像処理プログラム。
1. A medical image processing program for displaying a three-dimensional image representative of an anatomical structure of a subject, comprising:
a1: A step of generating an image including a graphical user interface for defining a display range of the three-dimensional image, the graphical user interface comprising:
a first slider for defining a cutting reference plane on one side of the three-dimensional image along a predetermined reference axis in three-dimensional space;
a second slider for identifying a cutting reference plane on the other side of the three-dimensional image along the predetermined reference axis;
a generating step,
a2: displaying the three-dimensional image existing between the cutting reference planes;
A medical image processing program that performs the following:
B1.被検者の解剖学的構造体を表す三次元画像(300)の表示を制御する表示制御部(11)を備える医用画像処理装置(10)であって、
上記表示制御部(11)は、
b1:被検者を撮像して得られた断層画像である二次元画像(200)と、上記三次元画像(300)とを含む画像を生成する処理と、
b2:操作者によって指定された上記二次元画像における所定の位置(p)を検出する処理と、
b3:上記三次元画像における、上記所定の位置(p)に対応する位置(P)に3Dポインタを表示する処理であって、当該3Dポインタは三次元画像のうちの所定のオブジェクトに紐付けて表示される、処理と、
b4:操作者によって上記3Dポインタを移動させる入力があった場合、上記3Dポインタを、上記所定のオブジェクトに沿うように移動させる処理と、
を行うように構成された、医用画像処理装置。
B1. A medical image processing device (10) including a display control unit (11) for controlling the display of a three-dimensional image (300) representing an anatomical structure of a subject,
The display control unit (11)
b1: A process of generating an image including a two-dimensional image (200) which is a tomographic image obtained by imaging a subject, and the three-dimensional image (300);
b2: A process of detecting a predetermined position (p) in the two-dimensional image designated by an operator;
b3: a process of displaying a 3D pointer at a position (P) in the three-dimensional image corresponding to the predetermined position (p), the 3D pointer being displayed in association with a predetermined object in the three-dimensional image;
b4: when an input for moving the 3D pointer is received from an operator, a process for moving the 3D pointer along the predetermined object;
13. A medical image processing device configured to:
C1.被検者の解剖学的構造体を表す三次元画像(300)の表示を制御する表示制御部(11)を備える医用画像処理装置(10)であって、
上記表示制御部(11)は、
c1:上記三次元画像のうちの所定のオブジェクト(例えば腫瘍)が選択されたことを特定する処理と、
c2:選択されたそのオブジェクトを囲む立体的なマージン球(378)を表示する処理と、を行うものであって、さらに、
c3:上記マージン球(378)のサイズを設定するためのグラフィカルユーザインターフェース(150)を表示する処理であって、当該グラフィカルユーザインターフェースは、その位置が上記マージン球(378)のサイズに対応しているスライダ(156)と、当該スライダの位置に基づいて決定される上記マージン体のサイズを示すサイズインジケータ(159)とを含むものである、処理と、
を行うように構成された、医用画像処理装置。
C1. A medical image processing device (10) including a display control unit (11) for controlling the display of a three-dimensional image (300) representing an anatomical structure of a subject,
The display control unit (11)
c1: identifying a selected object (e.g., a tumor) in the three-dimensional image;
c2: displaying a three-dimensional margin sphere (378) surrounding the selected object; and
c3: displaying a graphical user interface (150) for setting the size of the margin sphere (378), the graphical user interface including a slider (156) whose position corresponds to the size of the margin sphere (378) and a size indicator (159) indicating the size of the margin body determined based on the position of the slider;
13. A medical image processing device configured to:
D1.被検者の解剖学的構造体を表す医用画像(200、300)の表示を制御する制御部(11)を備える医用画像処理装置(10)であって、
上記制御部(11)は、
d1:手術中に装置が使用されていると想定される前記医用画像が表示されている状態において、一定時間のあいだ操作者による入力が無かったか否かを判定する処理と、
d2:一定時間のあいだ前記入力が無かった場合に、その時点で表示されている医用画像の画面をキャプチャしてその画像データを取得する処理と、
d3:前記画像データを所定のデータ格納部に保存する、または、装置外部に送信する処理と、
を行うように構成された、医用画像処理装置。
D1. A medical image processing device (10) including a control unit (11) for controlling display of a medical image (200, 300) representing an anatomical structure of a subject,
The control unit (11)
d1: A process of determining whether or not there has been no input from an operator for a certain period of time in a state in which the medical image is displayed, in which the apparatus is assumed to be used during surgery;
d2: if there is no input for a certain period of time, a process of capturing the screen of the medical image displayed at that time and acquiring the image data;
d3: A process of storing the image data in a predetermined data storage unit or transmitting the image data to an outside of the device;
13. A medical image processing device configured to:
1 医用画像処理システム
10 医用画像処理装置
11 画像表示制御部
12 データ格納部
13 表示デバイス
14 入力デバイス
15 データ入出力インターフェース
21 医用情報管理装置
22 薬液注入装置
23 撮像装置
100 表示画面
101A、101B 画像表示領域
102 分割ライン
111~116 アイコン
140 グラフィカルユーザインターフェース
145a、145b スライダ
150 グラフィカルユーザインターフェース
156 スライダ
157 プリセット値表示部
159 サイズインジケータ
161 3Dポインタ
170 グラフィカルユーザインターフェース
171 バーチャルプローブ
173 円軌道
174 強調表示
177 スライダ
190a~190c プローブ
195a~195c 予想壊死領域
198 円(円形領域)
200 二次元画像
220 超音波診断画像
300 三次元画像
303、303′、305 オブジェクト
305a、305b 端面
310 切断面
365 腫瘍
377 外接球
378 マージン球
p、P 位置
1 Medical image processing system 10 Medical image processing device 11 Image display control unit 12 Data storage unit 13 Display device 14 Input device 15 Data input/output interface 21 Medical information management device 22 Liquid injection device 23 Imaging device 100 Display screen 101A, 101B Image display area 102 Division lines 111 to 116 Icon 140 Graphical user interface 145a, 145b Slider 150 Graphical user interface 156 Slider 157 Preset value display unit 159 Size indicator 161 3D pointer 170 Graphical user interface 171 Virtual probe 173 Circular orbit 174 Highlighting 177 Slider 190a to 190c Probe 195a to 195c Expected necrosis area 198 Circle (circular area)
200 Two-dimensional image 220 Ultrasound diagnostic image 300 Three-dimensional image 303, 303', 305 Object 305a, 305b End surface 310 Cutting surface 365 Tumor 377 Circumscribed sphere 378 Margin sphere p, P Position
Claims (8)
前記表示制御部は、
a1:前記三次元画像の表示範囲を規定するためのグラフィカルユーザインターフェースを含む画像を生成する処理であって、当該グラフィカルユーザインターフェースは、
三次元空間内における所定の基準軸に沿った前記三次元画像の一方の側の切断基準面を 規定するための第1のスライダと、
前記所定の基準軸に沿った前記三次元画像の他方の側の切断基準面を特定するための第2のスライダと、
を含むものである、画像生成処理と、
a2:前記切断基準面どうしの間に存在する前記三次元画像を表示する処理と、
を行うように構成されており、さらに、
前記第1および第2のスライダは独立に移動可能であり、かつ、
所定の入力が行われた場合には、前記スライダどうしの距離を保ったまま前記第1および第2のスライダを同時に移動させることができるように構成されている、医用画像処理装置。 A medical image processing device including a display control unit that controls display of a three-dimensional image representing an anatomical structure of a subject,
The display control unit is
a1: A process for generating an image including a graphical user interface for defining a display range of the three-dimensional image, the graphical user interface comprising:
a first slider for defining a cutting reference plane on one side of the three-dimensional image along a predetermined reference axis in three-dimensional space;
a second slider for identifying a cutting reference plane on the other side of the three-dimensional image along the predetermined reference axis;
An image generation process comprising:
a2: a process of displaying the three-dimensional image existing between the cutting reference planes;
and further configured to:
the first and second sliders are independently movable; and
a medical image processing apparatus configured to, when a predetermined input is performed, move the first and second sliders simultaneously while maintaining the distance between the sliders.
前記表示制御部は、
a1:前記三次元画像の表示範囲を規定するためのグラフィカルユーザインターフェースを含む画像を生成する処理であって、当該グラフィカルユーザインターフェースは、
三次元空間内における所定の基準軸に沿った前記三次元画像の一方の側の切断基準面を 規定するための第1のスライダと、
前記所定の基準軸に沿った前記三次元画像の他方の側の切断基準面を特定するための第2のスライダと、
を含むものである、画像生成処理と、
a2:前記切断基準面どうしの間に存在する前記三次元画像を表示する処理と、
を行うように構成されており、
前記第1および第2のスライダが所定位置にある状態で、前記第1および第2のスライダに挟まれた領域の任意の位置をタッチし、所定の方向に移動された場合に、前記スライダどうしの距離を保ったまま前記第1および第2のスライダを同時に移動させることができるように構成されている、医用画像処理装置。 A medical image processing device including a display control unit that controls display of a three-dimensional image representing an anatomical structure of a subject on a touch panel display,
The display control unit is
a1: A process for generating an image including a graphical user interface for defining a display range of the three-dimensional image, the graphical user interface comprising:
a first slider for defining a cutting reference plane on one side of the three-dimensional image along a predetermined reference axis in three-dimensional space;
a second slider for identifying a cutting reference plane on the other side of the three-dimensional image along the predetermined reference axis;
An image generation process comprising:
a2: a process of displaying the three-dimensional image existing between the cutting reference planes;
The device is configured to:
A medical image processing device configured to be able to move the first and second sliders simultaneously while maintaining the distance between them when any position in the area between the first and second sliders is touched and moved in a predetermined direction while the first and second sliders are in a predetermined position.
前記他方の側の切断基準面では三次元画像の他の断面が表示される、
請求項1~4のいずれか一項に記載の医用画像処理装置。 A cross-section of the three-dimensional image is displayed on the cutting reference plane on one side, and/or
Another cross section of the three-dimensional image is displayed on the other side of the cutting reference plane.
The medical image processing device according to any one of claims 1 to 4.
前記三次元画像は、回転可能、移動可能、および拡大縮小可能の少なくとも1つの態様で表示されている、
請求項1~5のいずれか一項に記載の医用画像処理装置。 With the display range specified,
The three-dimensional image is displayed in at least one of a rotatable, movable, and scalable manner.
The medical image processing device according to any one of claims 1 to 5.
a1:前記三次元画像の表示範囲を規定するためのグラフィカルユーザインターフェースを含む画像を生成するステップであって、当該グラフィカルユーザインターフェースは、
三次元空間内における所定の基準軸に沿った前記三次元画像の一方の側の切断基準面を規定するための第1のスライダと、
前記所定の基準軸に沿った前記三次元画像の他方の側の切断基準面を特定するための第2のスライダと、
を含むものである、生成ステップと、
a2:前記切断基準面どうしの間に存在する前記三次元画像を表示させるステップと、
を含み、さらに、
前記第1および第2のスライダは独立に移動可能であり、かつ、
所定の入力が行われた場合には、前記スライダどうしの距離を保ったまま前記第1および第2のスライダを同時に移動させることができるようにすることを含む、医用画像処理装置の制御方法。 1. A method for controlling a medical image processing device that displays a three-dimensional image representing an anatomical structure of a subject, comprising:
a1: generating an image including a graphical user interface for defining a display range of the three-dimensional image, the graphical user interface comprising:
a first slider for defining a cutting reference plane on one side of the three-dimensional image along a predetermined reference axis in three-dimensional space;
a second slider for identifying a cutting reference plane on the other side of the three-dimensional image along the predetermined reference axis;
a generating step,
a2: displaying the three-dimensional image existing between the cutting reference planes;
and
the first and second sliders are independently movable; and
A method for controlling a medical image processing device, comprising: when a predetermined input is performed, moving the first and second sliders simultaneously while maintaining the distance between the sliders.
a1:前記三次元画像の表示範囲を規定するためのグラフィカルユーザインターフェースを含む画像を生成するステップであって、当該グラフィカルユーザインターフェースは、
三次元空間内における所定の基準軸に沿った前記三次元画像の一方の側の切断基準面を 規定するための第1のスライダと、
前記所定の基準軸に沿った前記三次元画像の他方の側の切断基準面を特定するための第2のスライダと、
を含むものである、生成ステップと、
a2:前記切断基準面どうしの間に存在する前記三次元画像を表示させるステップと、
を行わせ、さらに、
前記第1および第2のスライダは独立に移動可能であり、かつ、
所定の入力が行われた場合には、前記スライダどうしの距離を保ったまま前記第1および第2のスライダを同時に移動させることができるようにする、医用画像処理プログラム。 1. A medical image processing program for displaying a three-dimensional image representative of an anatomical structure of a subject, comprising:
a1: A step of generating an image including a graphical user interface for defining a display range of the three-dimensional image, the graphical user interface comprising:
a first slider for defining a cutting reference plane on one side of the three-dimensional image along a predetermined reference axis in three-dimensional space;
a second slider for identifying a cutting reference plane on the other side of the three-dimensional image along the predetermined reference axis;
a generating step,
a2: displaying the three-dimensional image existing between the cutting reference planes;
and then
the first and second sliders are independently movable; and
a medical image processing program that, when a predetermined input is performed, makes it possible to simultaneously move the first and second sliders while maintaining the distance between the sliders ;
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020078919A JP7555560B2 (en) | 2020-04-28 | 2020-04-28 | Medical image processing apparatus, control method for medical image processing apparatus, and medical image processing program |
JP2024151992A JP2024174931A (en) | 2020-04-28 | 2024-09-04 | Medical image processing apparatus, control method for medical image processing apparatus, and medical image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020078919A JP7555560B2 (en) | 2020-04-28 | 2020-04-28 | Medical image processing apparatus, control method for medical image processing apparatus, and medical image processing program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024151992A Division JP2024174931A (en) | 2020-04-28 | 2024-09-04 | Medical image processing apparatus, control method for medical image processing apparatus, and medical image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021171443A JP2021171443A (en) | 2021-11-01 |
JP7555560B2 true JP7555560B2 (en) | 2024-09-25 |
Family
ID=78278663
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020078919A Active JP7555560B2 (en) | 2020-04-28 | 2020-04-28 | Medical image processing apparatus, control method for medical image processing apparatus, and medical image processing program |
JP2024151992A Pending JP2024174931A (en) | 2020-04-28 | 2024-09-04 | Medical image processing apparatus, control method for medical image processing apparatus, and medical image processing program |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024151992A Pending JP2024174931A (en) | 2020-04-28 | 2024-09-04 | Medical image processing apparatus, control method for medical image processing apparatus, and medical image processing program |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP7555560B2 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006512133A (en) | 2002-11-29 | 2006-04-13 | ブラッコ イメージング ソチエタ ペル アチオニ | System and method for displaying and comparing 3D models |
JP2009119000A (en) | 2007-11-14 | 2009-06-04 | Nemoto Kyorindo:Kk | Auxiliary controller for processing medical image,image processing system, and method for processing medical image |
JP2011200549A (en) | 2010-03-26 | 2011-10-13 | Fujitsu Ltd | Method and apparatus for deforming three-dimensional method and program |
WO2017149721A1 (en) | 2016-03-03 | 2017-09-08 | 三菱電機株式会社 | Display control device |
US20180279996A1 (en) | 2014-11-18 | 2018-10-04 | C.R. Bard, Inc. | Ultrasound imaging system having automatic image presentation |
JP2020000863A (en) | 2018-06-26 | 2020-01-09 | 株式会社根本杏林堂 | Medical image processing system, medical image processing method and medical image processing program |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2892360B2 (en) * | 1988-12-02 | 1999-05-17 | 株式会社日立製作所 | 3D cursor control device |
-
2020
- 2020-04-28 JP JP2020078919A patent/JP7555560B2/en active Active
-
2024
- 2024-09-04 JP JP2024151992A patent/JP2024174931A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006512133A (en) | 2002-11-29 | 2006-04-13 | ブラッコ イメージング ソチエタ ペル アチオニ | System and method for displaying and comparing 3D models |
JP2009119000A (en) | 2007-11-14 | 2009-06-04 | Nemoto Kyorindo:Kk | Auxiliary controller for processing medical image,image processing system, and method for processing medical image |
JP2011200549A (en) | 2010-03-26 | 2011-10-13 | Fujitsu Ltd | Method and apparatus for deforming three-dimensional method and program |
US20180279996A1 (en) | 2014-11-18 | 2018-10-04 | C.R. Bard, Inc. | Ultrasound imaging system having automatic image presentation |
WO2017149721A1 (en) | 2016-03-03 | 2017-09-08 | 三菱電機株式会社 | Display control device |
JP2020000863A (en) | 2018-06-26 | 2020-01-09 | 株式会社根本杏林堂 | Medical image processing system, medical image processing method and medical image processing program |
Also Published As
Publication number | Publication date |
---|---|
JP2024174931A (en) | 2024-12-17 |
JP2021171443A (en) | 2021-11-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112740285B (en) | Superposition and manipulation of medical images in a virtual environment | |
EP2222224B1 (en) | Method and system for interactive percutaneous pre-operation surgical planning | |
CN106569673B (en) | Display method and display equipment for multimedia medical record report | |
CN109601018B (en) | System and method for generating B-mode images from 3D ultrasound data | |
JP2024020594A (en) | Medical image processing device, medical image processing method, and medical image processing program | |
US20220110682A1 (en) | Computer-Implemented Method, Computer-Assisted Processing Device and Non-Transitory Computer-Readable Medium for Computer-Assisted Planning of Surgical Path | |
CN112566581B (en) | System for ablation visualization | |
US11264139B2 (en) | Method and system for adjusting interactive 3D treatment zone for percutaneous treatment | |
US11646111B2 (en) | Medical image processing apparatus, medical image processing method and medical image processing system | |
JP2024023303A (en) | Medical image processing system, medical image processing method, and medical image processing program | |
JP6941145B2 (en) | Visualization of 3D image data on 2D images | |
EP1671221A1 (en) | Method and system for navigating in real time in three-dimensional medical image model | |
JP2012085833A (en) | Image processing system for three-dimensional medical image data, image processing method for the same, and program | |
JP7555560B2 (en) | Medical image processing apparatus, control method for medical image processing apparatus, and medical image processing program | |
JP6462358B2 (en) | Medical image display terminal and medical image display program | |
KR101903996B1 (en) | Method of simulating medical image and device thereof | |
JP7229569B2 (en) | Medical image processing device and medical image processing program | |
CN108231162B (en) | Method and apparatus for displaying medical images | |
JP7107590B2 (en) | Medical image display terminal and medical image display program | |
JP2022145671A (en) | Viewer, control method of the viewer and control program of the viewer | |
JP2024123195A (en) | Medical image processing device, medical image processing method, and medical image processing program | |
JP2019103818A (en) | Medical image display terminal and medical image display program | |
CN115063528A (en) | Floor planning method and related apparatus, equipment and storage medium | |
KR20220158447A (en) | System and method for providing medical visual data based on 3d data | |
De Paolis | Advanced navigation and augmented visualization in minimally invasive surgery |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230310 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231023 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231205 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20240126 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240403 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240806 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240904 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7555560 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |