JP2016202351A - Medical support system, medical support method, image processing apparatus, control method and control program thereof - Google Patents
Medical support system, medical support method, image processing apparatus, control method and control program thereof Download PDFInfo
- Publication number
- JP2016202351A JP2016202351A JP2015084771A JP2015084771A JP2016202351A JP 2016202351 A JP2016202351 A JP 2016202351A JP 2015084771 A JP2015084771 A JP 2015084771A JP 2015084771 A JP2015084771 A JP 2015084771A JP 2016202351 A JP2016202351 A JP 2016202351A
- Authority
- JP
- Japan
- Prior art keywords
- dimensional
- model
- data
- ultrasonic
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims description 102
- 238000000034 method Methods 0.000 title claims description 52
- 239000000523 sample Substances 0.000 claims abstract description 84
- 238000000605 extraction Methods 0.000 claims abstract description 34
- 230000003287 optical effect Effects 0.000 claims description 61
- 239000003550 marker Substances 0.000 claims description 57
- 210000004204 blood vessel Anatomy 0.000 claims description 55
- 238000002604 ultrasonography Methods 0.000 claims description 52
- 238000001514 detection method Methods 0.000 claims description 39
- 238000009825 accumulation Methods 0.000 claims description 14
- 230000005540 biological transmission Effects 0.000 claims description 9
- 238000003384 imaging method Methods 0.000 claims description 6
- 238000001727 in vivo Methods 0.000 claims description 3
- 239000000284 extract Substances 0.000 abstract description 14
- 238000010586 diagram Methods 0.000 description 32
- 230000008569 process Effects 0.000 description 20
- 238000004891 communication Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 12
- 210000000056 organ Anatomy 0.000 description 11
- 238000002591 computed tomography Methods 0.000 description 9
- 238000006243 chemical reaction Methods 0.000 description 8
- 210000004185 liver Anatomy 0.000 description 7
- 238000003745 diagnosis Methods 0.000 description 6
- 239000013598 vector Substances 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 239000000463 material Substances 0.000 description 4
- 238000001356 surgical procedure Methods 0.000 description 3
- 210000001519 tissue Anatomy 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- MHABMANUFPZXEB-UHFFFAOYSA-N O-demethyl-aloesaponarin I Natural products O=C1C2=CC=CC(O)=C2C(=O)C2=C1C=C(O)C(C(O)=O)=C2C MHABMANUFPZXEB-UHFFFAOYSA-N 0.000 description 2
- 210000001015 abdomen Anatomy 0.000 description 2
- 210000002784 stomach Anatomy 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 230000017531 blood circulation Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000002357 laparoscopic surgery Methods 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 210000002751 lymph Anatomy 0.000 description 1
- 230000005389 magnetism Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 210000000496 pancreas Anatomy 0.000 description 1
- 238000000059 patterning Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000002603 single-photon emission computed tomography Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 210000001835 viscera Anatomy 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Endoscopes (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、患者体内の3次元画像を表示して医療を支援する技術に関する。 The present invention relates to a technique for supporting medical treatment by displaying a three-dimensional image in a patient body.
上記技術分野において、特許文献1には、超音波画像と断面が一致するCTまたはMRIの断層画像を表示する技術が開示されている。また、特許文献2には、超音波画像の表示位置をCTまたはMRIの断層画像上に表示する技術が開示されている。また、特許文献3には、3次元超音波画像と断面が略一致するCTまたはMRIの3次元画像を表示する技術が開示されている。
In the above technical field,
しかしながら、上記文献に記載の技術は、超音波画像とCTあるいはMRI画像との位置合わせをして同じ断面画像を参照可能に並べて表示するが、患者の生体内部の実時間における部位の状態を認識することが難しかった。 However, the technique described in the above document aligns the ultrasonic image and the CT or MRI image and displays the same cross-sectional image so that it can be referred to, but recognizes the state of the part in the patient's living body in real time. It was difficult to do.
本発明の目的は、上述の課題を解決する技術を提供することにある。 The objective of this invention is providing the technique which solves the above-mentioned subject.
上記目的を達成するため、本発明に係る医療支援システムは、
患者の断層撮影画像群に基づいて、3次元部位モデルのデータを生成する部位モデル生成手段と、
前記3次元部位モデルから、所定の特徴を有する複数の第1特徴点の位置情報を抽出する第1特徴点抽出手段と、
前記患者に対して超音波プローブを用いて取得した超音波データと、前記超音波データを取得した前記超音波プローブの位置および向きデータとを対応付けて蓄積し、前記超音波データと前記位置および向きデータとを用いて、3次元超音波モデルのデータを生成する超音波モデル生成手段と、
前記3次元超音波モデルから、前記所定の特徴を有する複数の第2特徴点の位置情報を抽出する第2特徴点抽出手段と、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように、前記3次元部位モデルを変形する変形手段と、
前記変形手段により変形された前記3次元部位モデルの投影画像を表示する表示手段と、
を備える。
In order to achieve the above object, a medical support system according to the present invention includes:
A part model generation means for generating data of a three-dimensional part model based on a tomographic image group of a patient;
First feature point extraction means for extracting position information of a plurality of first feature points having a predetermined feature from the three-dimensional part model;
Ultrasound data acquired using an ultrasound probe for the patient and the position and orientation data of the ultrasound probe from which the ultrasound data was acquired are stored in association with each other, and the ultrasound data and the position and Ultrasonic model generation means for generating data of a three-dimensional ultrasonic model using the orientation data;
Second feature point extracting means for extracting position information of a plurality of second feature points having the predetermined feature from the three-dimensional ultrasonic model;
Deformation means for deforming the three-dimensional site model so that the plurality of first feature points and the plurality of second feature points overlap;
Display means for displaying a projection image of the three-dimensional part model deformed by the deformation means;
Is provided.
上記目的を達成するため、本発明に係る医療支援方法は、
患者の断層撮影画像群に基づいて、3次元部位モデルのデータを生成する部位モデル生成ステップと、
前記3次元部位モデルから、所定の特徴を有する複数の第1特徴点の位置情報を抽出する第1特徴点抽出ステップと、
前記患者に対して超音波プローブを用いて取得した超音波データと、前記超音波データを取得した前記超音波プローブの位置および向きデータとを対応付けて蓄積手段に蓄積する蓄積ステップと、
前記超音波データと前記位置および向きデータとを用いて、3次元超音波モデルのデータを生成する超音波モデル生成ステップと、
前記3次元超音波モデルから、前記所定の特徴を有する複数の第2特徴点の位置情報を抽出する第2特徴点抽出ステップと、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように、前記3次元部位モデルを変形する変形ステップと、
前記変形ステップにおいて変形された前記3次元部位モデルの投影画像を表示する表示ステップと、
を含む。
In order to achieve the above object, a medical support method according to the present invention comprises:
A site model generation step for generating data of a 3D site model based on a tomographic image group of a patient;
A first feature point extracting step of extracting position information of a plurality of first feature points having a predetermined feature from the three-dimensional part model;
An accumulation step of associating and accumulating in the accumulation means the ultrasound data acquired using an ultrasound probe for the patient and the position and orientation data of the ultrasound probe from which the ultrasound data was acquired;
An ultrasonic model generation step of generating data of a three-dimensional ultrasonic model using the ultrasonic data and the position and orientation data;
A second feature point extracting step of extracting position information of a plurality of second feature points having the predetermined feature from the three-dimensional ultrasonic model;
A deforming step of deforming the three-dimensional site model so that the plurality of first feature points and the plurality of second feature points overlap;
A display step of displaying a projected image of the three-dimensional part model deformed in the deformation step;
including.
上記目的を達成するため、本発明に係る画像処理装置は、
患者の断層撮影画像群に基づいて生成された3次元部位モデルのデータを受信する受信手段と、
前記3次元部位モデルから、所定の特徴を有する複数の第1特徴点の位置情報を抽出する第1特徴点抽出手段と、
前記患者に対して超音波プローブを用いて取得した超音波データと、前記超音波データを取得した前記超音波プローブの位置および向きデータとを対応付けて蓄積する蓄積手段と、
前記超音波データと前記位置および向きデータとを用いて、3次元超音波モデルのデータを生成する超音波モデル生成手段と、
前記3次元超音波モデルから、前記所定の特徴を有する複数の第2特徴点の位置情報を抽出する第2特徴点抽出手段と、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように、前記3次元部位モデルを変形する変形手段と、
前記変形手段により変形された前記3次元部位モデルの投影画像を表示手段に送信する送信手段と、
を備える。
In order to achieve the above object, an image processing apparatus according to the present invention provides:
Receiving means for receiving data of a three-dimensional site model generated based on a tomographic image group of a patient;
First feature point extraction means for extracting position information of a plurality of first feature points having a predetermined feature from the three-dimensional part model;
Accumulation means for accumulating the ultrasonic data acquired using an ultrasonic probe for the patient and the position and orientation data of the ultrasonic probe from which the ultrasonic data was acquired;
An ultrasonic model generating means for generating data of a three-dimensional ultrasonic model using the ultrasonic data and the position and orientation data;
Second feature point extracting means for extracting position information of a plurality of second feature points having the predetermined feature from the three-dimensional ultrasonic model;
Deformation means for deforming the three-dimensional site model so that the plurality of first feature points and the plurality of second feature points overlap;
Transmitting means for transmitting a projection image of the three-dimensional part model deformed by the deforming means to a display means;
Is provided.
上記目的を達成するため、本発明に係る画像処理装置の制御方法は、
患者の断層撮影画像群に基づいて生成された3次元部位モデルのデータを受信する受信ステップと、
前記3次元部位モデルから、所定の特徴を有する複数の第1特徴点の位置情報を抽出する第1特徴点抽出ステップと、
前記患者に対して超音波プローブを用いて取得した超音波データと、前記超音波データを取得した前記超音波プローブの位置および向きデータとを対応付けて蓄積手段に蓄積する蓄積ステップと、
前記超音波データと前記位置および向きデータとを用いて、3次元超音波モデルのデータを生成する超音波モデル生成ステップと、
前記3次元超音波モデルから、前記所定の特徴を有する複数の第2特徴点の位置情報を抽出する第2特徴点抽出ステップと、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように、前記3次元部位モデルを変形する変形ステップと、
前記変形ステップにおいて変形された前記3次元部位モデルの投影画像を表示手段に送信する送信ステップと、
を含む。
In order to achieve the above object, a method for controlling an image processing apparatus according to the present invention includes:
A receiving step of receiving data of a three-dimensional site model generated based on a tomographic image group of a patient;
A first feature point extracting step of extracting position information of a plurality of first feature points having a predetermined feature from the three-dimensional part model;
An accumulation step of associating and accumulating in the accumulation means the ultrasound data acquired using an ultrasound probe for the patient and the position and orientation data of the ultrasound probe from which the ultrasound data was acquired;
An ultrasonic model generation step of generating data of a three-dimensional ultrasonic model using the ultrasonic data and the position and orientation data;
A second feature point extracting step of extracting position information of a plurality of second feature points having the predetermined feature from the three-dimensional ultrasonic model;
A deforming step of deforming the three-dimensional site model so that the plurality of first feature points and the plurality of second feature points overlap;
A transmission step of transmitting to the display means a projection image of the three-dimensional region model deformed in the deformation step;
including.
上記目的を達成するため、本発明に係る画像処理装置の制御プログラムは、
患者の断層撮影画像群に基づいて生成された3次元部位モデルのデータを受信する受信ステップと、
前記3次元部位モデルから、所定の特徴を有する複数の第1特徴点の位置情報を抽出する第1特徴点抽出ステップと、
前記患者に対して超音波プローブを用いて取得した超音波データと、前記超音波データを取得した前記超音波プローブの位置および向きデータとを対応付けて蓄積手段に蓄積する蓄積ステップと、
前記超音波データと前記位置および向きデータとを用いて、3次元超音波モデルのデータを生成する超音波モデル生成ステップと、
前記3次元超音波モデルから、前記所定の特徴を有する複数の第2特徴点の位置情報を抽出する第2特徴点抽出ステップと、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように、前記3次元部位モデルを変形する変形ステップと、
前記変形ステップにおいて変形された前記3次元部位モデルの投影画像を表示手段に送信する送信ステップと、
をコンピュータに実行させる。
In order to achieve the above object, a control program for an image processing apparatus according to the present invention provides:
A receiving step of receiving data of a three-dimensional site model generated based on a tomographic image group of a patient;
A first feature point extracting step of extracting position information of a plurality of first feature points having a predetermined feature from the three-dimensional part model;
An accumulation step of associating and accumulating in the accumulation means the ultrasound data acquired using an ultrasound probe for the patient and the position and orientation data of the ultrasound probe from which the ultrasound data was acquired;
An ultrasonic model generation step of generating data of a three-dimensional ultrasonic model using the ultrasonic data and the position and orientation data;
A second feature point extracting step of extracting position information of a plurality of second feature points having the predetermined feature from the three-dimensional ultrasonic model;
A deforming step of deforming the three-dimensional site model so that the plurality of first feature points and the plurality of second feature points overlap;
A transmission step of transmitting to the display means a projection image of the three-dimensional region model deformed in the deformation step;
Is executed on the computer.
本発明によれば、患者の生体内部の実時間における部位の状態を容易に認識することができる。 According to the present invention, it is possible to easily recognize the state of a part in a patient's living body in real time.
以下に、図面を参照して、本発明の実施の形態について例示的に詳しく説明する。ただし、以下の実施の形態に記載されている構成要素は単なる例示であり、本発明の技術範囲をそれらのみに限定する趣旨のものではない。なお、本明細書で使用する「部位」は、生体内部の全体あるいはその一部を表わし、例えば、下腹部などの広い範囲から肺、肝臓、胃などの内臓器官やその病巣部分、あるいは血管やリンパ線、神経の一部などの狭い範囲までを表現する文言である。 Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. However, the constituent elements described in the following embodiments are merely examples, and are not intended to limit the technical scope of the present invention only to them. The “part” used in this specification represents the whole or a part of the inside of the living body. For example, from a wide range such as the lower abdomen, internal organs such as the lung, liver, stomach, and the lesion part thereof, blood vessels, It is a word that expresses a narrow area such as a lymph line or a part of a nerve.
[第1実施形態]
本発明の第1実施形態としての医療支援システム100について、図1を用いて説明する。医療支援システム100は、患者体内の3次元部位モデルを表示して医療を支援するシステムである。
[First Embodiment]
A
図1に示すように、医療支援システム100は、部位モデル生成部110と、第1特徴点抽出部120と、超音波モデル生成部130と、第2特徴点抽出部140と、変形部150と、表示部160と、を含む。部位モデル生成部110は、患者101の断層撮影画像群に基づいて、3次元部位モデル111のデータを生成する。第1特徴点抽出部120は、3次元部位モデル111から、所定の特徴を有する複数の第1特徴点の位置情報を抽出する。超音波モデル生成部130は、患者101に対して超音波プローブ103を用いて取得した超音波データ104と、超音波データ104を取得した超音波プローブ103の位置および向きデータとを対応付けて蓄積し、超音波データ104と位置および向きデータとを用いて、3次元超音波モデル131のデータを生成する。第2特徴点抽出部140は、3次元超音波モデル131から、所定の特徴を有する複数の第2特徴点の位置情報を抽出する。変形部150は、複数の第1特徴点と複数の第2特徴点とが重なるように、3次元部位モデル111を変形する。表示部160は、変形部150により変形された3次元部位モデルの投影画像160を表示する。
As shown in FIG. 1, the
なお、変形部150は、3次元部位モデル111を、各々が少なくとも1つの第1特徴点を含む複数の3次元領域に分割する分割領域生成部151と、複数の第1特徴点と複数の第2特徴点とが重なるように複数の3次元領域のそれぞれを位置調整し、位置調整された複数の3次元領域153を互いに連結する分割領域連結部152と、を有し、表示部160は、分割領域連結部152が連結した複数の3次元領域161を3次元部位モデルとして表示する。
The deforming
本実施形態によれば、超音波プローブにより取得した3次元超音波画像に対応して、断層撮影画像群に基づく3次元部位モデルを変換して表示することにより、患者の生体内部の実時間における部位の状態を容易に認識することができる。 According to the present embodiment, the three-dimensional site model based on the tomographic image group is converted and displayed in correspondence with the three-dimensional ultrasonic image acquired by the ultrasonic probe, so that the real time inside the living body of the patient can be obtained. The state of the part can be easily recognized.
[第2実施形態]
次に、本発明の第2実施形態に係る医療支援システムについて説明する。本実施形態に係る医療支援システムは、CT画像やMRI画像から生成された3次元部位モデルデータの注目部位に含まれる3次元血管モデルの第1特徴点を抽出して、注目部位を、第1特徴点を含む領域に分割する。また、超音波プローブで取得した超音波画像データの注目部位に含まれる3次元血管モデルの第2特徴点を抽出する。そして、第2特徴点の3次元位置に第1特徴点の3次元位置を合わせるように分割領域を位置調整して連結することにより、3次元部位モデルデータを変換して3次元部位モデルを変形し、変形された3次元部位モデルを患者の生体に重なるように表示する。3次元部位モデルの詳細な変形が、さらに非剛体変形などにより行なわれてもよい。
[Second Embodiment]
Next, a medical support system according to the second embodiment of the present invention will be described. The medical support system according to the present embodiment extracts the first feature point of the three-dimensional blood vessel model included in the target region of the three-dimensional region model data generated from the CT image or the MRI image, Divide into regions containing feature points. Further, the second feature point of the three-dimensional blood vessel model included in the target region of the ultrasonic image data acquired by the ultrasonic probe is extracted. Then, the three-dimensional part model data is transformed and the three-dimensional part model is transformed by aligning and connecting the divided regions so that the three-dimensional position of the first feature point matches the three-dimensional position of the second feature point. Then, the deformed three-dimensional part model is displayed so as to overlap the patient's living body. The detailed deformation of the three-dimensional part model may be further performed by non-rigid deformation or the like.
また、患者の生体に重なるように表示するには、患者の生体に固定された光学マーカを撮像し、光学マーカの位置および向きに基づいた位置、形状および大きさの3次元部位モデルデータを生成する。光学マーカは、光学マーカ付きの磁気センサとして提供される。超音波プローブに固定された磁気センサおよび生体に固定された磁気センサから超音波プローブの正確な位置および向きを検出する。3次元部位モデルは、オプティカルシースルー型のヘッドマウンティンディスプレイ(以下、HMD:Head Mounted Display)に表示される。なお、本実施形態においては、光学マーカや磁気センサを患者の生体に固定した例を示したが、手術中に開腹している場合は、手術対象臓器に直接、光学マーカや磁気センサを固定して、より正確な位置を算出することもできる。 In addition, in order to display the image so as to overlap the patient's living body, the optical marker fixed to the patient's living body is imaged, and three-dimensional site model data having a position, shape and size based on the position and orientation of the optical marker is generated To do. The optical marker is provided as a magnetic sensor with an optical marker. An accurate position and orientation of the ultrasonic probe are detected from the magnetic sensor fixed to the ultrasonic probe and the magnetic sensor fixed to the living body. The three-dimensional part model is displayed on an optical see-through type head mounting display (hereinafter, HMD: Head Mounted Display). In this embodiment, the optical marker and the magnetic sensor are fixed to the patient's living body. However, when the abdomen is opened during the operation, the optical marker and the magnetic sensor are directly fixed to the organ to be operated. Thus, a more accurate position can be calculated.
《医療支援システム》
図2A、図2B、図2Cおよび図3を参照して、本実施形態の医療支援システムの構成および動作について説明する。
《Medical support system》
With reference to FIG. 2A, FIG. 2B, FIG. 2C, and FIG. 3, the structure and operation | movement of the medical assistance system of this embodiment are demonstrated.
(システム概要)
図2Aは、本実施形態に係る医療支援システム200の概要を示す図である。
(System overview)
FIG. 2A is a diagram showing an outline of the
医療支援システム200においては、コンピュータ断層撮影画像の1つであるCT画像210から生成した、例えば、STL(Standard Triangulated Language)形式の3次元モデルデータで表わされた3次元部位モデルや3次元部位モデルから抽出された3次元血管モデルなどから、モデルの特徴を表わす3次元座標上に配置された第1特徴点群240を抽出する。なお、第1特徴点群240は、3次元モデルデータにおいて生体組織の特徴ある位置を表わすものであれば限定されないが、例えば、血管の枝分かれ点における、枝分かれ数や枝分かれベクトル、あるいは全体のパターンが特有の点を第1特徴点としてよい。次に、第1特徴点群240から少なくとも1つ、望ましくは少なくとも3つの隣接した第1特徴点を含む領域への分割処理260を行なう。なお、第1特徴点が領域の分割面や分割点にあるのが、分割領域の連結が容易であり望ましい。
In the
一方、診察室や手術室230において、位置検出用器具(例えば、磁気センサ)を用いて位置判定された超音波プローブ203により実時間に取得した時系列の2次元超音波画像群220から、あるいは、3次元超音波画像から3次元血管モデルを生成し、モデルの特徴を表わす3次元座標上に配置された第2特徴点群250を抽出する。なお、第2特徴点群250も、3次元超音波画像データにおいて生体組織の特徴ある位置を表わすものであれば限定されないが、第1特徴点と同様の、血管の枝分かれ点における、枝分かれ数や枝分かれベクトル、あるいは全体のパターンが特有の点を第2特徴点とするのが望ましい。ここで、超音波プローブ203の位置検出用器具は、診察や手術中に医師などにより遮断される光学マーカよりも、遮断されることのない磁気センサが望ましい。
On the other hand, in the examination room or the
そして、医療支援システム200においては、第1特徴点と第2特徴点との3次元マッチングが行なわれ、第1特徴点群240が第2特徴点群250に重なるように、分割領域が位置調整されて連結されることによって、3次元モデルデータの変形が行なわれる。なお、3次元モデルデータの変形は、さらに分割領域や連結後の3次元部位モデルの非剛性変形を含んでもよい。
In the
次に、医療支援システム200においては、実時間に生体201上に固定した位置検出用器具を用いて計測された、生体と3次元画像データに基づく3次元部位モデルとの位置関係に基づき、実時間の超音波画像に対応して変形された3次元部位モデル270を生体内部にあるように調整して3次元表示する。なお、3次元部位モデル270の3次元表示をする表示部は、オプティカルシースルー型HMDが望ましく、医師はHMDの表示画面上の3次元部位モデルの先に実際の生体を目視する。ここで、生体上の位置検出用器具は、生体と3次元部位モデルの表示との位置関係を高い精度で得るための光学マーカ付きの磁気センサが望ましい。
Next, in the
図2Bは、本実施形態に係る第1特徴点群240および第2特徴点群250の抽出処理の概要を示す図である。なお、図2Bにおいては第1特徴点群240の抽出を代表して説明するが、第2特徴点群250の抽出も同様である。
FIG. 2B is a diagram showing an outline of extraction processing of the first
取得した3次元血管画像241に対して、まず、各血管画像の中心線(芯線)242を抽出する。次に、複数の芯線242の分岐点や変曲点などの特徴点243を抽出して、分割処理260に使用する。
First, a center line (core line) 242 of each blood vessel image is extracted from the acquired three-dimensional
(システム構成)
図2Cは、本実施形態に係る医療支援システム200の構成を示すブロック図である。
(System configuration)
FIG. 2C is a block diagram illustrating a configuration of the
医療支援システム200は、CT装置211と、3次元モデル生成装置212と、画像処理装置280と、診察室や手術室230に配置された診察/手術器具群と、を備える。
The
CT装置211は、患者201のコンピュータ断層撮影画像をあらかじめ取得する。なお、取得された目的の臓器に対して生成した3次元CT画像は、STL形式などの3次元データに変換するのが望ましい。3次元データの範囲に限定はないが、患者201の注目器官単位であることが望ましい。3次元モデル生成装置212は、CT装置211からのコンピュータ断層撮影画像群から、例えば3次元血管モデルを含む3次元部位モデルを生成して、画像処理装置280に渡す。なお、図2Cの画像処理装置280では、CT装置211によるコンピュータ断層撮影画像群に基づく3次元部位モデルの取得としたが、MRI装置であっても他のコンピュータ断層撮影装置に基づく3次元部位モデルであってもよい。また、3次元部位モデルのデータは、患者201の生体内部の生体組織の構成あるいは器官や患部の構成を表わすものであれば、STL形式に限定されない。なお、本実施形態においては、画像処理装置280が、外部の3次元モデル生成装置212で生成された3次元部位モデルのデータを取得する場合を示すが、画像処理装置280が3次元モデル生成装置212の機能を含む構成であってもよい。
The
一方、診察室や手術室230の診察/手術器具群としては、超音波プローブ203と、磁気センサ231と、光学マーカ付き磁気センサ293と、Webカメラ294と、HMD295と、を有する。なお、Webカメラ294とHMD295とは、オプティカルシースルー型HMDとして一体化されている。超音波プローブ203は、実時間の診察中あるいは手術中に、患者201から超音波画像を取得する。磁気センサ231は、超音波プローブ203上に配置されて、超音波プローブ203の位置を検出する。光学マーカ付き磁気センサ293は、患者201に配置されて、磁気センサにより光学マーカの位置を検出し、光学マーカは患者201の生体とWebカメラ294との位置関係を判定するために使用される。Webカメラ294は、光学マーカ付き磁気センサ293の光学マーカを撮像して、患者201の生体とWebカメラ294との位置関係を判定する。なお、患者201の生体とWebカメラ294との位置関係を測定するためにHMDに磁気センサを取り付けてもよい。HMD295は、超音波画像に合致するように変形された3次元データで表わされる3次元モデルを、医師202が目視する患者201の位置に表示する。
On the other hand, the examination / surgical instrument group in the examination room or the
画像処理装置280は、3次元データで表わされる3次元部位モデルを、磁気センサ231の検出信号によって位置および向きを判定した超音波プローブ203が取得した超音波画像に合致するように変形する。かかる変形には、3次元部位モデルを血管の分岐点などの特徴点に基づき領域に分割する分割処理と、超音波画像の特徴点に合致するように分割領域を連結する連結処理とが含まれる。次に、画像処理装置280は、光学マーカ付き磁気センサ293の磁気センサの検出信号と光学マーカを撮像したWebカメラ294の画像データによって、患者201の位置および向きと、患者201とHMD295との位置関係とを算出する。なお、Webカメラ294とHMD295との位置関係は一体のHMDとして固定されている。そして、画像処理装置280は、変形した3次元部位モデルが患者201の生体内部の正確な位置にあるように3次元表示データを生成して、HMD295に3次元表示させる。このように生体にセンサを固定するメリットは、生体が動いた時でも正確に3次元位置を推定することができることである。
The
(動作手順)
図3は、本実施形態に係る医療支援システム200の動作手順を示すシーケンス図である。
(Operation procedure)
FIG. 3 is a sequence diagram showing an operation procedure of the
CT装置211は、ステップS301において、患者201のコンピュータ断層撮影画像群を取得する。3次元モデル生成装置212は、ステップS302において、コンピュータ断層撮影画像群から肝臓などの部位あるいはその血管を抜き出して3次元表示する、3次元部位モデルデータを生成して、画像処理装置280に送信する。画像処理装置280は、ステップS303において、3次元モデル生成装置212から3次元部位モデルデータを受信する。画像処理装置280は、ステップS305において、3次元血管モデルのような3次元部位モデルに基づいて第1特徴点群を抽出する。そして、画像処理装置280は、ステップS307において、3次元部位モデルを、少なくとも1つの第1特徴点を含む3次元領域に分割して保持する。
In step S301, the
ステップS309において、磁気センサ231は超音波プローブ203の位置および向きを取得して画像処理装置280に送信し、超音波プローブ203はその時の超音波信号を取得して画像処理装置280に送信する。画像処理装置280は、ステップS311において、複数の継時的な位置情報と超音波信号とに基づいて超音波の2次元データを蓄積した後に、例えば血管モデルを示す3次元超音波モデルデータを生成する。次に、画像処理装置280は、ステップS313において、血管モデルを示す3次元超音波モデルデータに基づいて第2特徴点群を抽出する。
In step S <b> 309, the
さらに、画像処理装置280は、ステップS315において、第1特徴点群が第2特徴点群に合致するように、3次元部位モデルから生成した分割領域を位置変換する。そして、画像処理装置280は、位置変換した分割領域を連結する。なお、分割領域の連結を正確にするためには、第1特徴点を分割領域の面や稜線あるいは頂点などに含むのが望ましい。
Further, in step S315, the
光学マーカ付きの磁気センサ293の磁気センサは、ステップS317において、配置した患者201の生体の位置および向きを取得して、画像処理装置280に送信する。また、Webカメラ294は、ステップS319において、光学マーカ付きの磁気センサ293の光学マーカを撮像して、光学マーカの撮像データを画像処理装置280に送信する。画像処理装置280は、ステップS321において、光学マーカの撮像データから生体と表示部であるHMD295との位置関係(距離と向き)を算出する。
In step S317, the magnetic sensor of the
なお、光学マーカ付きの磁気センサ293と超音波プローブ203の磁気センサ231とにより、超音波プローブ203の位置をより正確に検出することができる。すなわち、超音波プローブ203に光学マーカを配置することにより正確な位置を検出できるが、光学マーカがカメラの視界から隠れないことが条件となる。本実施形態においては、超音波プローブ203に磁気センサ231を配置して、超音波プローブ203を自由に移動することを可能にした。しかしながら、光学マーカに比較して正確性が低下するので、光学マーカ付きの磁気センサ293を生体201に配置することで、正確さを確保する。したがって、HMD295に磁気センサを取り付けた場合はHMD295と超音波プローブ203との位置関係が検出できるので、カメラによる撮像の必要はない。
The position of the
そして、画像処理装置280は、ステップS323において、分割領域の連結により変形した3次元部位モデルを、患者201の生体内部にあるかのように表示する表示データを生成して、HMD295に送信する。HMD295は、ステップS325において、受信した表示データにより3次元部位モデルを患者201の生体内部にあるかのように表示する。
In step S323, the
《画像処理装置の機能構成》
図4は、本実施形態に係る画像処理装置280の機能構成を示すブロック図である。
<< Functional configuration of image processing apparatus >>
FIG. 4 is a block diagram illustrating a functional configuration of the
画像処理装置280は、3次元部位モデル受信部411と、第1特徴点抽出部412と、分割領域生成部424と、を備える。また、画像処理装置280は、通信制御部413と、磁気信号受信部414と、超音波プローブ位置検出部415と、超音波信号受信部416と、超音波モデルデータ生成部417と、第2特徴点抽出部418と、を備える。さらに、画像処理装置280は、磁気信号受信部419と、患者位置検出部420と、光学マーカ画像受信部421と、HMD位置算出部422と、表示画像生成部423と、表示画像送信部425と、を備える。表示画像生成部423は、分割領域マッチング部431と、分割領域連結部432と、HMD画像生成部433と、を含む。
The
3次元部位モデル受信部411は、外部の3次元モデル生成装置212においてコンピュータ断層撮影画像群から生成した血管モデルなどの3次元部位モデルを受信する。3次元部位モデルの受信は、記憶媒体を介してもよいし、通信制御部413を介してもよい。なお、断層画像からのSTLデータなどの3次元データの生成を画像処理装置280で実行する場合は、画像処理装置280はSTLデータ生成部を有する。第1特徴点抽出部412は、血管モデルなどの3次元部位モデルから第1特徴点を抽出する。分割領域生成部424は、STLデータなどで表わされた3次元部位モデルを、近接する第1特徴点を含む3次元の小領域に分割する。なお、各分割領域には少なくとも1つの第1特徴点が含まれる。分割領域の超音波画像の第2特徴点とのマッチングによる位置変換のためには、各分割領域には少なくとも3つの第1特徴点が含まれるのが望ましい。さらに、分割領域の連結を容易にするために、第1特徴点が各分割領域の面、稜線、頂点にあるよう分割するのが望ましい。
The three-dimensional part
通信制御部413は、診察/手術器具群290に含まれる各器具との情報交換を行なう。なお、診察室や手術室230の診察/手術器具群との通信は有線であっても無線であってもよいが、無線通信であるのが望ましい。磁気信号受信部414は、通信制御部413を介して、超音波プローブ203に配置した磁気センサ231からの磁気検出信号を受信する。超音波プローブ位置検出部415は、磁気センサ231からの磁気検出信号に基づいて、超音波プローブ203の位置および向きを検出する。詳細には、磁気検出信号に基づく磁気センサ231による位置および向きの検出は、磁場発生装置(不図示)と、コントローラ部(不図示)と、磁気センサ231と、を含む位置検出システムにおいて、コントローラ部で向きと座標を算出して送信する構成となっている。なお、磁気センサ231が磁気検出信号から位置および向きを検出するための記憶部を有する場合は、磁気センサ231から位置および向きを示すデータ(例えば、座標とベクトル)を受信してもよい。超音波信号受信部416は、通信制御部413を介して、超音波プローブ203から超音波信号を受信する。なお、超音波信号受信部416は、超音波プローブ203が超音波信号から超音波画像データを生成する機能を有する場合には、超音波画像データを受信してもよい。
The
超音波モデルデータ生成部417は、超音波信号受信部416が受信した超音波信号を、超音波プローブ位置検出部415が検出した超音波プローブ203の位置および向きに対応して、3次元座標の超音波モデルデータを生成する。なお、超音波モデルデータ生成部417は、超音波プローブ203が取得した各断面画像を3次元に接続して3次元超音波モデルデータを生成する。本実施形態では、超音波プローブ203が取得した各断面画像から血管などの構造物を抽出して、それらを3次元に接続して3次元超音波モデルデータを生成する。第2特徴点抽出部418は、超音波モデルデータ生成部417が生成した血管モデルなどの3次元超音波モデルデータから、例えば血管の枝分かれなどの第2特徴点を抽出する。
The ultrasonic model
磁気信号受信部419は、通信制御部413を介して、光学マーカ付き磁気センサ293から磁気検出信号を受信する。なお、光学マーカ付き磁気センサ293が磁気検出信号から位置および向きを検出するための記憶部を有する場合は、位置および向きを示すデータ(例えば、座標とベクトル)を受信してもよい。患者位置検出部420は、光学マーカ付き磁気センサ293からの磁気検出信号に基づいて、患者201の位置および向きを検出する。詳細には、磁気検出信号に基づく光学マーカ付き磁気センサ293による位置および向きの検出は、磁場発生装置(不図示)と、コントローラ部(不図示)と、磁気センサ293と、を含む位置検出システムにおいて、コントローラ部で向きと座標を算出して送信する構成となっている。
The magnetic
光学マーカ画像受信部421は、通信制御部413を介して、HMD295に設置されたWebカメラ294が撮像した光学マーカ付き磁気センサ293の光学マーカの撮影画像を受信する。HMD位置算出部422は、光学マーカ画像受信部421が受信した光学マーカの撮影画像に基づいて、HMD295と患者201との位置関係を算出する。なお、前述のように、HMD295に位置判定用の磁気センサを配置すれば、光学マーカの撮影画像に基づくHMD295と患者201との位置関係の算出はなくてもよい。
The optical marker
表示画像生成部423の分割領域マッチング部431は、分割領域生成部424が生成した各分割領域に含まれる第1特徴点と第2特徴点抽出部418が抽出した第2特徴点とをマッチングして、互いの特徴点が合致するように各分割領域を移動および回転する。そして、分割領域連結部432は、各分割領域を第1特徴点により連結して、3次元超音波画像に合致するように変形された、STLデータなどで表わされた3次元部位モデルを生成する。次に、HDM画像生成部433は、患者位置検出部420が検出した患者201の位置に変形した3次元部位モデルが重なるように、HMD位置算出部422で算出したHMD位置に3次元表示するための画像データを生成する。すなわち、計測されたHMD295の位置から観察した時に、患者201の生体に重なる3次元部位モデルがどのように見えるかを計算した3次元画像を生成する。表示画像送信部425は、HMD画像生成部433が生成した患者201の位置に重なる画像データを、通信制御部413を介して、HMD295に表示すべく送信する。
The divided
(分割領域テーブル)
図5は、本実施形態に係る分割領域テーブル500の構成を示す図である。分割領域テーブル500は、コンピュータ断層撮影画像の1つであるCT画像から3次元形式の血管モデルなどの部位モデルデータから抽出した第1特徴点と、第1特徴点を含む分割領域とを保持するテーブルである。なお、分割領域テーブル500の構成は、図5に限定されない。また、図5においては、血管の枝分かれ場所を第1特徴点とする例を示すが、これに限定されず固有の特徴を表わす場所であればよい。
(Division area table)
FIG. 5 is a diagram showing a configuration of the divided region table 500 according to the present embodiment. The divided region table 500 holds a first feature point extracted from a part model data such as a three-dimensional blood vessel model from a CT image, which is one of computed tomography images, and a divided region including the first feature point. It is a table. Note that the configuration of the divided region table 500 is not limited to FIG. FIG. 5 shows an example in which the branching location of the blood vessel is the first feature point. However, the present invention is not limited to this, and any location that represents a unique feature may be used.
分割領域テーブル500は、複数断層のCTデータから生成され、受信したSTL形式などの3次元部位モデルデータ501と、3次元部位モデルデータ501に含まれる3次元血管モデルデータ502と、血管の芯線を抽出した血管芯線503と、を記憶する。なお、本例では、抽象化して普遍的な特徴を考慮するため、血管芯線503に基づき特徴点を抽出するが、特徴点が有する特徴がマッチング可能な程度に不変であれば、血管の太さの比率などを考慮してもよい。なお、受信した3次元部位モデルデータ501が、血管のみを抜き出したSTLファイルであってもよい。
The divided region table 500 is generated from CT data of a plurality of slices, and the received three-dimensional
分割領域テーブル500は、本例の第1特徴点データ504として、血管芯線503のパターンから、枝分かれ点を特徴点として、枝分かれIDと、枝分かれ特徴データと、特徴点の3次元位置データと、を記憶する。枝分かれ特徴データとしては、枝分かれ数511、各枝分かれの始点と方向を示す枝分かれベクトル512、全体の枝分かれをパターン化した枝分かれパターン513、その他の例えば血流方向など514、の少なくともいずれかを記憶する。枝分かれ特徴データは、特徴ID515としてあらかじめ類別されていてもよい。第1特徴点データ504は、図5に限定されない。マッチングにおける信頼性を高めるデータを加え、信頼性を低めるデータを除くことができる。
The divided region table 500 includes, as the first
分割領域テーブル500は、第1特徴点を含む分割領域を識別する分割領域ID505と、分割領域データ506と、を記憶する。ここで、分割領域データ506としては、第1特徴点以外の血管データや、分割領域の形状データ、重心データなどが含まれる。なお、図5においては、分割領域が、3つの第1特徴点、あるいは、4つの第1特徴点、を含む場合を例に図示しているが、分割領域が含む第1特徴点の数には限定はない。また、隣接する分割領域は、面や稜線、頂点に共通の第1特徴点を有するように生成することで、連結処理が容易となる。
The divided area table 500 stores a divided
(超音波画像テーブル)
図6Aは、本実施形態に係る超音波画像テーブル610の構成を示す図である。超音波画像テーブル610は、超音波プローブ291から受信した超音波信号から超音波プローブ291の位置および向きを考慮した3次元の超音波モデルデータを生成するために使用される。
(Ultrasonic image table)
FIG. 6A is a diagram showing a configuration of the ultrasonic image table 610 according to the present embodiment. The ultrasonic image table 610 is used to generate three-dimensional ultrasonic model data considering the position and orientation of the ultrasonic probe 291 from the ultrasonic signal received from the ultrasonic probe 291.
超音波画像テーブル610は、超音波画像データID611、患者IDと患部とを含む患者情報612、取得日時(タイムスタンプ)613、に対応つけて、超音波プローブ203の形式に対応した取得パラメータ614と、取得パラメータ614により処理された受信した超音波画像データ615と、を記憶する。
The ultrasound image table 610 is associated with the ultrasound
また、超音波画像テーブル610は、磁気センサ231および磁気センサ293からの磁気センサ相対信号616と、磁気センサ相対信号616から検出した超音波プローブ203の位置および向きを示す超音波プローブの3次元位置データ617と、を記憶する。ここで、磁気センサ231および磁気センサ293からの磁気センサ相対信号616により超音波プローブ203の位置および向きを検出するのは、磁気センサ231による超音波プローブ203の位置情報だけでは、生体が動いた時に3次元位置がずれるためである。そのため、超音波プローブ203の位置および向きは、生体につけた磁気センサ293からの相対的な位置と方向として記録する。
The ultrasonic image table 610 includes a magnetic sensor
そして、超音波画像テーブル610は、超音波プローブ203の位置および向きに対応して受信した超音波画像データ615を3次元座標変換した、3次元の超音波画像データ618を記憶する。さらに、各スキャンに対応する3次元の超音波画像データ618を接続した患者の器官単位あるいは患部単位の3次元超音波モデルデータ619を生成して記憶する。
The ultrasonic image table 610 stores three-dimensional
(第2特徴点テーブル)
図6Bは、本実施形態に係る第2特徴点テーブル620の構成を示す図である。第2特徴点テーブル620は、超音波画像データ618から抽出した特徴点を保持するテーブルである。なお、第2特徴点テーブル620の構成は、図6Bに限定されない。また、図6Bにおいては、血管の枝分かれ場所を特徴点とする例を示すが、これに限定されず固有の特徴を表わす場所であればよいが、第1特徴点と共通の特徴であるのが望ましい。
(Second feature point table)
FIG. 6B is a diagram showing a configuration of the second feature point table 620 according to the present embodiment. The second feature point table 620 is a table that holds feature points extracted from the
第2特徴点テーブル620は、超音波画像テーブル610の超音波画像データID611および超音波画像データ618に対応付けて、血管部位抽出画像データ621を記憶する。なお、血管部位抽出は、超音波画像データ618の2値化および輪郭抽出、そして環状輪郭の選別などにより行なわれる。
The second feature point table 620 stores the blood vessel part extracted
また、第2特徴点テーブル620は、血管部位抽出画像データ621を接続することで抽出される血管モデルデータ622と、血管の芯線を抽出した血管芯線623と、を記憶する。なお、本例では、抽象化して普遍的な特徴を考慮するため、血管芯線623により特徴点を抽出するが、特徴点が有する特徴がマッチング可能な程度に不変であれば、血管の太さの比率などを考慮してもよい。
The second feature point table 620 stores blood
そして、第2特徴点テーブル620は、本例の第2特徴点データ624として、血管芯線623のパターンから、枝分かれ点を特徴点として、枝分かれIDと、枝分かれ特徴データと、特徴点の3次元位置データと、を記憶する。枝分かれ特徴データについては、図5と同様であるので、詳細な説明を省略する。
The second feature point table 620 includes, as the second
《表示画像生成部》
図7Aは、本実施形態に係る表示画像生成部423の機能構成を示すブロック図である。
<Display image generator>
FIG. 7A is a block diagram illustrating a functional configuration of the display
表示画像生成部423は、3次元部位モデル取得部701と、分割領域取得部702と、3次元部位モデル配置部703と、分割領域配置部704と、第2特徴点データ取得部705と、分割領域マッチング部431と、を備える。ここで、3次元部位モデル配置部703と、分割領域配置部704とが、分割領域連結部432に相当する。また、表示画像生成部423は、患者位置データ取得部707と、患者位置のモデル生成部708と、HMD位置データ取得部709と、HMD画像生成部433と、を備える。
The display
3次元部位モデル取得部701は、3次元部位モデル受信部411で受信された3次元血管モデルを含む3次元部位モデルを取得する。分割領域取得部702は、分割領域生成部424で生成された分割領域を取得する。3次元部位モデル配置部703は、分割領域の配置に対応付けて3次元部位モデル取得部701が取得した3次元部位モデルデータを位置調整して配置する。分割領域配置部704は、分割領域に含まれる第1特徴点と第2特徴点とのマッチングにより分割領域が3次元超音波画像に合致するように、分割領域を位置調整して配置する。第2特徴点データ取得部705は、第2特徴点抽出部418から抽出された第2特徴点データを取得する。分割領域マッチング部431は、分割領域に含まれる第1特徴点と第2特徴点とをマッチングし、位置調整された分割領域の第1特徴点データが第2特徴点データに合致するように、3次元部位モデル配置部703および分割領域配置部704に対して位置調整による変形をさせる。なお、位置調整による変形としては、分割領域の形状を維持した並行移動や回転移動、あるいは、サイズ変更が含まれる。さらに、分割領域の配置後の特徴点を合致させる形状変化を含んでもよい。
The three-dimensional part
患者位置データ取得部707は、患者位置検出部420から検出された患者位置データを取得する。患者位置のモデル生成部708は、分割領域連結部432において超音波画像に合致されるように位置調整された3次元部位モデルから、患者位置に重なる3次元モデルを生成する。HMD位置データ取得部709は、HMD位置算出部422から算出されたHMD位置データを取得する。HMD画像生成部710は、HMD位置データに対応して、患者位置のモデル生成部708が生成したモデルから、患者の生体に重なって見えるようHMD295に3次元表示するHMD画像を生成して、表示画像送信部425に出力する。
The patient position
(表示画像生成部の処理)
図7Bは、本実施形態に係る分割領域連結部432の処理720を説明する図である。なお、分割領域連結部432の処理720は、図7Bに限定されない。分割領域に含まれる第1特徴点が第2特徴点に合致するように、分割領域を位置調整することによって3次元部位モデルを変形する方式であればいずれの処理も適用可能である。
(Processing of display image generator)
FIG. 7B is a diagram for explaining the
分割領域連結部432の処理720は、初期の3次元部位モデルから分割された分割領域データと分割領域に含まれる第1特徴点データとの組721から、分割領域の第1特徴点組と第2特徴点とのマッチングにより、サイズ変更や3次元の位置変換や方向変換をして分割領域を結合した3次元部位モデルデータ722への変換を含む。また、分割領域連結部432の処理720は、分割領域を結合した3次元部位モデルデータ722から生体の位置に合わせたサイズ調整データ723への変換を含む。
The
分割領域データと分割領域に含まれる第1特徴点データとの組721から、分割領域を結合した3次元部位モデルデータ722への変換は、第2特徴点データ726との分割領域マッチング724による分割領域の位置調整と連結を繰り返すことによって実現する。例えば、同一の特徴を有する第1特徴点と第2特徴点との最小2乗距離により、3次元超音波モデルに最も近いサイズや向きの分割領域に位置調整するが、他の方式も採用可能である。
The conversion from the
次に、分割領域を結合した3次元部位モデルデータ722から生体の位置に合わせたサイズ調整データ723への変換は、患者位置データ取得部707により取得した生体位置727に重畳させるように、分割領域を結合した3次元部位モデルデータ722のサイズを変更する(725)。
Next, the conversion from the three-dimensional
図7Cは、本実施形態に係る分割領域連結テーブル730の構成および位置合わせ用情報の例740を示す図である。 FIG. 7C is a diagram illustrating an example 740 of the configuration and alignment information of the divided region connection table 730 according to the present embodiment.
分割領域連結テーブル730は、分割領域連結部432において、分割領域を連結して3次元超音波画像に合致した3次元部位モデルを生成するために使用される。
The divided region connection table 730 is used in the divided
分割領域連結テーブル730は、図5の分割領域テーブル500の分割領域ID505と、分割領域データ506と、第1特徴点データ504と、を記憶する。分割領域連結テーブル730は、変更された分割領域のサイズ、方向および位置の現在値731と、現在値731に基づいて変更された第1特徴点データの変更位置732と、を記憶する。そして、分割領域連結テーブル730は、第1特徴点データの変更位置732と一致した第2特徴点データ733と、一致した第2特徴点データ733に基づいて、分割領域の連結位置734を記憶する。
The divided area connection table 730 stores the divided
また、位置合わせ用情報の例740は、位置合わせの対象部位(臓器)において、特に、位置合わせの目標とすべき位置であり、マーカやセンサの配置位置、超音波プローブによる走査位置、を定めるために使用される。 In addition, the alignment information example 740 is a position to be a position alignment target in an alignment target part (organ), and determines a marker or sensor arrangement position and a scanning position by an ultrasonic probe. Used for.
位置合わせ用情報の例740は、位置合わせ対象部位741に対応付けて、位置合わせ用目標位置742と、その目標位置が有する条件743と、を記憶する。
The alignment information example 740 stores the
なお、分割領域の位置調整と連結処理中、あるいは、連結処理後に合致を補う非剛性変形を組み合わせてもよい。その場合、材質パラメータに基づく変換行列により非剛性変形をして最適解を求める方式であっても、単純に同一の特徴を有する第1特徴点と第2特徴点との距離のズレを変形補正する方式であってもよい。なお、材質パラメータとしては、一般的な内臓の非剛性パラメータを用いてもよいが、各患者について、あるいは、患部について、非剛性パラメータを測定して用いるのが望ましい。 Note that non-rigid deformation that compensates for a match may be combined during position adjustment of the divided region and the connection process, or after the connection process. In such a case, even if the optimal solution is obtained by performing non-rigid deformation using a transformation matrix based on the material parameters, the displacement of the distance between the first feature point and the second feature point having the same feature is simply corrected for deformation. It may be a system to do. As the material parameter, a general internal non-rigid parameter may be used, but it is desirable to measure and use the non-rigid parameter for each patient or the affected part.
さらに、非剛性材質が含む特徴点を合致させる他の方式が採用されてもよい。例えば、非剛性材質についての変形を学習情報として蓄積しておき、それを利用する方式であってもよい。3次元モデルが肝臓、胃、膵臓など器官単位である場合は、それら器官の多数の変形例を学習しておき、患者特有の変形を少ないパラメータで表現することも可能である。 Furthermore, other methods for matching feature points included in the non-rigid material may be employed. For example, a method may be used in which deformation of non-rigid material is accumulated as learning information and used. When the three-dimensional model is an organ unit such as the liver, stomach, or pancreas, it is possible to learn a large number of modified examples of these organs and express patient-specific deformation with a small number of parameters.
また、3次元部位を細かい格子状に特徴点を含む制御点を配置して、その制御点間を非剛体変形する方式でもよい。あるいは、B-Spline関数を利用した非剛体変形(FFD:Free-form deformation)を用いて、空間的に滑らかで不規則な変形(揺らぎ)を高精度に推定して、領域ベースの位置合わせを用いた超解像を行う方式であってもよい。 Further, a method may be used in which control points including feature points are arranged in a fine grid pattern in a three-dimensional part and non-rigid deformation is performed between the control points. Or, using non-rigid body deformation (FFD: Free-form deformation) using B-Spline function, spatially smooth and irregular deformation (fluctuation) is estimated with high accuracy, and region-based alignment is performed. The super-resolution method used may be used.
また、非剛体変形としては、アフィン変換や高次多項式を用いた変換も適用可能である。3次元モデルの合致評価としては、残差2乗和(SSD:Sum of squared difference)のよるものや、正規化相互相関(NCC:Normalized cross correlation)によるもの、相互情報量または正規化相互情報量(MI:Mutual information)によるもの、などが考えられる。 Further, as the non-rigid deformation, affine transformation or transformation using a higher order polynomial can be applied. Conformity evaluation of a three-dimensional model includes a method based on a sum of squared difference (SSD), a method based on normalized cross correlation (NCC), a mutual information amount or a normalized mutual information amount. (MI: Mutual information) is considered.
また、MRIやX線CTで得られた解剖学的情報を持つ画像と、PETやSPECTなどの機能的情報を持つ画像とを重ねることも行なわれており、その重ね合わせ技術も非剛体変形に適用可能である。 In addition, an image having anatomical information obtained by MRI or X-ray CT and an image having functional information such as PET or SPECT are superposed, and the superposition technique is also used for non-rigid deformation. Applicable.
(表示データ生成テーブル)
図8は、本実施形態に係る表示データ生成テーブル800の構成を示す図である。表示データ生成テーブル800は、患者201から実時間で取得した超音波画像データに合致する3次元部位モデルを患者201に重なるようにHMD295に表示するために使用するテーブルである。
(Display data generation table)
FIG. 8 is a diagram showing a configuration of the display data generation table 800 according to the present embodiment. The display data generation table 800 is a table used for displaying on the HMD 295 a three-dimensional site model that matches the ultrasound image data acquired from the
表示データ生成テーブル800は、実時間を示すタイムスタンプ801に対応付けて、超音波プローブ位置情報802と、患者位置情報803と、HMD位置情報804と、を記憶する。超音波プローブ位置情報802は、磁気センサ292の検出データと超音波プローブ291の位置データとを有する。患者位置情報803は、光学マーカ付き磁気センサ293の検出データと患者201の位置データとを有する。HMD位置情報804は、光学マーカ付き磁気センサ293の光学マーカの画像データとHMD位置データとを有する。
The display data generation table 800 stores ultrasonic
そして、表示データ生成テーブル800は、上記位置情報を参照して生成されたHMD表示情報805を記憶する。HMD表示情報805は、上記位置情報を参照して生成された3次元部位モデルデータと、右目用HMD画像データと、左目用HMD画像データと、を含む。
The display data generation table 800 stores
《画像処理装置のハードウェア構成》
図9は、本実施形態に係る画像処理装置280のハードウェア構成を示すブロック図である。
<< Hardware configuration of image processing apparatus >>
FIG. 9 is a block diagram showing a hardware configuration of the
図9で、CPU910は演算制御用のプロセッサであり、プログラムを実行することで図4の画像処理装置280の機能構成部を実現する。ROM920は、初期データおよびプログラムなどの固定データおよびプログラムを記憶する。また、通信制御部413は、ネットワークを介して診察室や手術室230の診察/手術器具群や他の装置と通信する。なお、CPU910は1つに限定されず、複数のCPUであっても、あるいは画像処理用のGPUを含んでもよい。また、通信制御部413は、CPU910とは独立したCPUを有して、RAM940の領域に送受信データを書き込みあるいは読み出しするのが望ましい。また、RAM940とストレージ950との間でデータを転送するDMACを設けるのが望ましい(図示なし)。さらに、入出力インタフェース960は、CPU910とは独立したCPUを有して、RAM940の領域に入出力データを書き込みあるいは読み出しするのが望ましい。したがって、CPU910は、RAM940にデータが受信あるいは転送されたことを認識してデータを処理する。また、CPU910は、処理結果をRAM940に準備し、後の送信あるいは転送は通信制御部413やDMAC、あるいは入出力インタフェース960に任せる。
In FIG. 9, a
RAM940は、CPU910が一時記憶のワークエリアとして使用するランダムアクセスメモリである。RAM940には、本実施形態の実現に必要なデータを記憶する領域が確保されている。3次元部位モデルデータ501は、CTデータから生成されて受信された3次元STL形式の3次元血管モデルを含む3次元部位モデルデータである。第1特徴点データ504は、3次元部位モデルデータ501から抽出された第1特徴点のデータである。分割領域データ506は、第1特徴点データ504を含み、3次元部位モデルデータ501から分割された分割領域のデータである。超音波モデルデータ619は、超音波プローブ203で実時間に検出した超音波信号から生成された3次元血管画像を含む3次元画像データである。第2特徴点データ624は、超音波モデルデータ619から抽出された第2特徴点のデータである。分割領域マッチングテーブル730は、図7Cに示した、分割領域マッチング部431が、分割領域が含む第1特徴点と第2特徴点とのマッチングをして分割領域を連結するためのテーブルである。HMD位置データ804は、Webカメラ294が撮像した光学マーカの画像に基づいて算出されたHMD295の位置データである。表示画像データ805は、位置調整して連結した分割領域に基づく3次元部位モデルを患者201に重ねて、HMD295に3次元表示するために生成されたデータである。なお、RAM940の各データは、前出の図5、図6A、図6B、図7C、図8のようにテーブルとして記憶されてもよい。
The
ストレージ950には、データベースや各種のパラメータ、あるいは本実施形態の実現に必要な以下のデータまたはプログラムが記憶されている。特徴点抽出アルゴリズム951は、第1特徴点あるいは第2特徴点を抽出するためのアルゴリズムである。領域分割アルゴリズム952は、第1特徴点を含む小領域に3次元部位モデルを分割するためのアルゴリズムである。分割領域マッチングアルゴリズム953は、第1特徴点を含む分割領域を第2特徴点に合致させるためのアルゴリズムである。
The
ストレージ950には、以下のプログラムが格納される。画像処理プログラム955は、本画像処理装置280の全体を制御するプログラムである。特徴点抽出モジュール956は、特徴点抽出アルゴリズム951に従って第1特徴点あるいは第2特徴点を抽出するモジュールである。領域分割モジュール957は、領域分割アルゴリズム952に従って第1特徴点を含む分割領域を生成するモジュールである。分割領域マッチングモジュール958は、分割領域マッチングアルゴリズム953に従って分割領域が含む第1特徴点を第2特徴点に合致させるように分割領域を位置調整して連結するモジュールである。表示画像生成モジュール959は、変形された3次元部位モデルを表わすSTLデータを患者201の生体内部にあるように、HMD295に3次元表示する表示画像を生成するモジュールである。
The
入出力インタフェース960は、入出力機器との入出力データをインタフェースする。入出力インタフェース960には、必要であれば、表示部961、操作部962、が接続される。なお、診察/手術器具群を有線接続する場合は、診察/手術器具群に含まれる磁気センサ231付きの超音波プローブ203や、光学マーカ付き磁気センサ293、Webカメラ294、HMD295が入出力インタフェース960に接続される。また、入出力インタフェース960には、必要であれば、音声入出力部や、GPS位置判定部が接続されてもよい。
The input /
なお、図9のRAM940やストレージ950には、画像処理装置280が有する汎用の機能や他の実現可能な機能に関連するプログラムやデータは図示されていない。
Note that the
《画像処理装置の処理手順》
図10は、本実施形態に係る画像処理装置280の処理手順を示すフローチャートである。このフローチャートは、図9のCPU910がRAM940を使用して実行し、図4および図7Aの機能構成部を実現する。
<< Processing procedure of image processing apparatus >>
FIG. 10 is a flowchart showing a processing procedure of the
画像処理装置280は、ステップS1001において、外部の3次元モデル生成装置212から3次元血管モデルを含む3次元部位モデルデータを受信する。なお、画像処理装置280内部でCTデータからSTLデータを生成する場合は、CTデータを受信してSTLデータを生成した後、3次元部位モデルデータを生成する。画像処理装置280は、ステップS1003において、3次元部位モデルデータに基づいて第1特徴点抽出処理を実行する。画像処理装置280は、ステップS1005において、例えばSTL形式で表わされる3次元部位モデルを、第1特徴点を含む小領域への領域分割処理を実行する。
In step S <b> 1001, the
画像処理装置280は、ステップS1007において、超音波プローブ203からの超音波画像データおよび磁気センサ231および磁気センサ293からの磁気センサ位置(超音波プローブ位置)を取得する。そして、画像処理装置280は、ステップS1009において、各超音波プローブ203の位置と超音波画像データとを蓄積して、3次元超音波モデルデータを生成する。画像処理装置280は、ステップ1011において、3次元超音波モデルデータに基づいて第2特徴点抽出処理を実行する。
In step S1007, the
画像処理装置280は、ステップS1013において、分割領域に含まれる第1特徴点と第2特徴点とのマッチングを行ない、分割領域の第1特徴点が第2特徴点に合致するか否かを判定する。分割領域の第1特徴点が第2特徴点に合致しない場合、画像処理装置280は、ステップS1015において、分割領域の位置調整を行ない、第1特徴点を調整する。STL形式の分割領域データの場合は、STLデータの変換を行なう。このように、分割領域の第1特徴点と第2特徴点とのマッチングを繰り返す。
In step S1013, the
分割領域の第1特徴点が第2特徴点に合致する場合、画像処理装置280は、ステップS1017において、分割領域を他の分割領域と連結する。そして、画像処理装置280は、ステップS1019において、ステップS1005で分割された小領域の連結が完了したか否かを判定する。分割領域の連結が完了していない場合、画像処理装置280は、ステップS1013に戻って、次の分割領域について分割領域の位置調整と連結処理を継続する。
If the first feature point of the divided area matches the second feature point, the
分割領域の連結が完了すると、3次元超音波モデルに対応する3次元部位モデルが生成されているので、画像処理装置280は、ステップS1021において、患者201に配置した光学マーカ付き磁気センサ293から磁気センサ位置(患者位置)を取得して、患者201の生体内部に、分割処理と連結処理とにより変形した3次元部位モデルを表示するように調整する。次に、画像処理装置280は、ステップS1023において、Webカメラ294から光学マーカ付き磁気センサ293の光学マーカ画像を取得する。そして、画像処理装置280は、光学マーカ画像から患者201とHMD295との位置関係を算出して、分割処理と連結処理とにより変形した3次元部位モデルが患者目視と重なるように、HMD295の表示データを生成して出力する。
When the connection of the divided areas is completed, a three-dimensional part model corresponding to the three-dimensional ultrasonic model has been generated. Therefore, in step S1021, the
画像処理装置280は、ステップS1025において、患者201の生体内部への3次元部位モデルの表示の終了か否かを判定する。3次元部位モデルの表示の終了でなければ、画像処理装置280は、ステップS1021に戻って、超音波画像に位置合わせした3次元部位モデルの患者201の生体内部への表示を実時間に繰り返す。そして、例えば、肝臓の形が変形した時には、もう一度、超音波を使ったスキャンをして、新たな位置合わせを行う。すなわち、肝臓の形が変わらなければ、超音波によるスキャンなしで肝臓の観察を続ける。
In step S1025, the
(特徴点抽出処理)
図11は、本実施形態に係る特徴点抽出処理(S1003/S1011)の手順を示すフローチャートである。
(Feature point extraction process)
FIG. 11 is a flowchart showing a procedure of feature point extraction processing (S1003 / S1011) according to the present embodiment.
画像処理装置280は、ステップS1111において、対象とする3次元モデルデータを取得する。第1特徴点抽出処理(S1003)の場合は、対象とする3次元モデルデータは3次元部位モデルデータであり、第2特徴点抽出処理(S1011)の場合は、対象とする3次元モデルデータは超音波モデルデータである。画像処理装置280は、ステップS1113において、取得した3次元モデルデータから血管モデルデータを抽出する。なお、第1特徴点抽出処理(S1003)の場合、あらかじめ血管モデルデータが取得されていれば、ステップS1113は必要ない。
In step S <b> 1111, the
画像処理装置280は、ステップS1115において、血管モデルデータに基づいて血管芯線を抽出して、抽象化された血管パターンを生成する。次に、画像処理装置280は、ステップS1117において、血管芯線のパターンに基づき、血管の枝分かれ点を特徴点として抽出する。そして、画像処理装置280は、ステップS1119において、枝分かれ点の特徴データおよびその3次元位置との組を比較可能に格納する。
In step S1115, the
(領域分割処理)
図12は、本実施形態に係る領域分割処理(S1005)の手順を示すフローチャートである。
(Area division processing)
FIG. 12 is a flowchart showing the procedure of the area division processing (S1005) according to the present embodiment.
画像処理装置280は、ステップS1201において、本例では、血管芯線において少なくとも3つの枝分かれ点を第1特徴点として含む領域に、3次元部位モデルを分割する。次に、画像処理装置280は、ステップS1203において、各分割領域に識別子(ID)を付与する。そして、画像処理装置280は、ステップS1205において、分割領域IDに対応付けて第1特徴点組を記憶する。
In step S1201, in this example, the
なお、本実施形態においては、オプティカルシースルー型HMDへの変形された3次元部位モデルの表示を示したが、Webカメラ294で撮像した患者の生体画像に、変形された3次元部位モデルを重畳して、ビデオスルー型HMDやモニタ、あるいは、携帯端末などに表示してもよい。
In the present embodiment, the display of the deformed three-dimensional part model on the optical see-through HMD is shown. However, the deformed three-dimensional part model is superimposed on the patient's biological image captured by the
本実施形態によれば、3次元超音波モデルに対応して変形された3次元部位モデルを患者の生体に重ねて表示するので、患者の生体内部の実時間における部位の状態を、生体内部の正確な位置において認識することができる。 According to this embodiment, since the three-dimensional part model deformed corresponding to the three-dimensional ultrasonic model is displayed superimposed on the patient's living body, the state of the part in the patient's living body in real time It can be recognized at an accurate position.
[第3実施形態]
次に、本発明の第3実施形態に係る医療支援システムについて説明する。本実施形態に係る医療支援システムは、上記第2実施形態と比べると、CT画像などから得た3次元部位モデルを超音波画像に対応して変形して、腹腔鏡により観察する内部画像に重畳して表示する点で異なる。その他の構成および動作は、第2実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
[Third Embodiment]
Next, a medical support system according to a third embodiment of the present invention will be described. Compared with the second embodiment, the medical support system according to the present embodiment deforms a three-dimensional site model obtained from a CT image or the like corresponding to an ultrasonic image and superimposes it on an internal image observed by a laparoscope It is different in that it is displayed. Since other configurations and operations are the same as those of the second embodiment, the same configurations and operations are denoted by the same reference numerals, and detailed description thereof is omitted.
《医療支援システムの構成》
図13Aおよび図13Bを参照して、本実施形態の医療支援システムの構成および動作について説明する。
《Configuration of medical support system》
With reference to FIG. 13A and FIG. 13B, a structure and operation | movement of the medical assistance system of this embodiment are demonstrated.
(システム概要)
図13Aは、本実施形態に係る医療支援システム1300の処理概要を示すブロック図である。なお、図13Aにおいて、図2Aと同様の構成要素には同じ参照番号を付して、説明を省略する。
(System overview)
FIG. 13A is a block diagram illustrating an outline of processing of the
医療支援システム1300においては、棒状の超音波プローブ1303を体内に挿入し、腹腔鏡1391で観察している部位周囲の超音波画像を取得する。また、手術室1330において実時間に生体内部を観察する腹腔鏡1391に固定した位置検出用器具を用いて、腹腔鏡1391の観察画像と実時間の超音波画像に対応して変形された3次元部位モデルとの位置関係が計測される。そして、計測された位置関係に基づき、3次元部位モデルを調整して、腹腔鏡1391の観察画像に重畳して3次元表示1370をする。図13Aでは、3次元表示1370において、腹腔鏡1391の観察画像である点描の肝臓画像1372に重畳した部位モデルとして血管モデル1371を分かり易く示しているが、実際には腹腔鏡1391では観察できない組織内部の結果が重畳表示される。なお、腹腔鏡1391の観察画像に重畳して3次元部位モデルの3次元表示をする表示部は、携帯端末やモニタ、あるいは、ビデオシースルー型HMDが望ましい。ここで、位置検出用器具は、腹腔鏡1391の先端に固定した磁気センサが使用される。また、観察画像と3次元部位モデルの表示との位置関係を高い精度で得るためには、臓器に光学マーカを固定するのが望ましい。
In the
(システム構成)
図13Bは、本実施形態に係る医療支援システム1300の構成を示すブロック図である。なお、図13Bにおいて、図2Bと同様の構成要素には同じ参照番号を付して、説明を省略する。
(System configuration)
FIG. 13B is a block diagram illustrating a configuration of a
医療支援システム1300は、CT装置211と、3次元モデル生成装置212と、画像処理装置1380と、診察室や手術室1330の診察/手術器具群と、を備える。
The
診察室や手術室1330の診察/手術器具群は、棒状の超音波プローブ1303と、超音波プローブに固定された磁気センサ1331と、腹腔鏡1391と、腹腔鏡に固定された磁気センサ1392と、モニタ1370と、生体または対象臓器に固定された磁気センサ1393とを有する。磁気センサ1331および磁気センサ1393により、超音波プローブ1303の安定した位置検出ができる。腹腔鏡1391は、実時間の診察中あるいは手術中に、患者201から生体内の画像を取得する。磁気センサ1392は、腹腔鏡1391の先端位置に配置されて、腹腔鏡1391の観察位置を検出する。磁気センサ1392および磁気センサ1393により、腹腔鏡1391の安定した位置検出ができる。
The examination / surgical instrument group in the examination room or
画像処理装置1380は、3次元データで表わされる3次元部位モデルを領域分割し、磁気センサ1331の検出信号によって位置および向きを判定した超音波プローブ1303が取得した3次元超音波画像に合致するように連結することにより変形する。そして、画像処理装置1380は、変形した3次元部位モデルを、腹腔鏡1391が取得した観察画像に重畳させた3次元表示データを生成して、モニタ1370に表示させる。また、術者202が操作する腹腔鏡手術の処置具1373が、腹腔鏡1391により観察されて、モニタ1370に表示されている。
The
なお、図13Bには、術者202しか図示されていないが、実際の腹腔鏡手術では、腹腔鏡を操作するスコピストと超音波プローブを操作する術者あるいは助手など複数の人間により操作されることになる。また、腹腔鏡1391が取得した観察画像に合致させた3次元部位モデルを重畳させてビデオシースルー型HMDに表示してもよい。
Although only the
《画像処理装置の機能構成》
図14は、本実施形態に係る画像処理装置1380の機能構成を示すブロック図である。なお、図14において、図4と同様の機能構成部には同じ参照番号を付して、説明を省略する。
<< Functional configuration of image processing apparatus >>
FIG. 14 is a block diagram showing a functional configuration of the
磁気信号受信部1419は、通信制御部413を介して、腹腔鏡1391に配置した磁気センサ1392からの磁気検出信号を受信する。腹腔鏡位置検出部1420は、磁気センサ1392からの磁気検出信号と磁気センサ1393からの磁気検出信号とに基づいて、腹腔鏡1391の位置および向きを検出する。なお、磁気センサ1392が磁気検出信号から位置および向きを検出するための記憶部を有する場合は、位置および向きを示すデータ(例えば、座標とベクトル)を受信してもよい。腹腔鏡画像受信部1421は、通信制御部413を介して、腹腔鏡1391から観察画像を受信する。なお、腹腔鏡画像受信部1421は、腹腔鏡1391が腹腔鏡画像データを生成する機能を有する場合には、腹腔鏡画像データを、直接、受信してもよい。磁気信号受信部1422は、通信制御部413を介して、生体201または生体内の対象臓器に配置した磁気センサ1393からの磁気検出信号を受信する。
The magnetic
表示画像生成部1423の生成モデル重畳部1433は、STL形式などで表わされる3次元部位モデルを領域分割して特徴点が対応するように連結することによって、実時間の3次元超音波モデルに合致するよう変形された3次元部位モデルを、腹腔鏡1391が取得した観察画像に重畳した画像を生成する。そして、生成モデル重畳部1433は、生成した重畳画像を、表示画像送信部425からモニタ1370や携帯端末、あるいは、ビデオシースルー型HMDに送信して表示させる。
The generation
本実施形態によれば、腹腔鏡により取得した生体内部画像に、3次元超音波画像に対応して変形された3次元部位モデルを重ねて表示するので、患者の生体内部の実時間における部位の状態を、生体内部の画像を伴い正確に認識することができる。 According to this embodiment, since the three-dimensional region model deformed corresponding to the three-dimensional ultrasound image is superimposed on the in-vivo image acquired by the laparoscope, the region in real time inside the patient's body is displayed. The state can be accurately recognized with an image inside the living body.
[第4実施形態]
次に、本発明の第4実施形態に係る医療支援システムについて説明する。本実施形態に係る医療支援システムは、上記第2実施形態と比べると、3次元超音波モデルに対応して変形した3次元部位モデルを患者の生体上のシートディスプレイに表示する点で異なる。その他の構成および動作は、第2実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
[Fourth Embodiment]
Next, a medical support system according to the fourth embodiment of the present invention will be described. The medical support system according to the present embodiment is different from the second embodiment in that a three-dimensional part model deformed corresponding to the three-dimensional ultrasonic model is displayed on a sheet display on a patient's living body. Since other configurations and operations are the same as those of the second embodiment, the same configurations and operations are denoted by the same reference numerals, and detailed description thereof is omitted.
《医療支援システムの構成》
図15は、本実施形態に係る医療支援システム1500の構成を示すブロック図である。なお、図15において、図2Bまたは図13Bと同様の構成要素は同じ参照番号を付して、説明を省略する。
《Configuration of medical support system》
FIG. 15 is a block diagram illustrating a configuration of a
医療支援システム1500は、CT装置211と、3次元モデル生成装置212と、画像処理装置1580と、診察室や手術室1530の診察/手術器具群と、を備える。
The
診察室や手術室1530の診察/手術器具群は、超音波プローブ203と、超音波プローブに固定された磁気センサ231と、光学マーカ付き磁気センサ293と、ビデオカメラ1594と、シートディスプレイ1595と、を有する。ビデオカメラ1594は、シートディスプレイ1595に配置された光学マーカ付き磁気センサ293の光学マーカを撮像する。患者201の表面に配置されたシートディスプレイ1595は、3次元超音波モデルに合致するように変形された3次元データで表わされる3次元モデルを、生体内部の正確な位置に表示する。
The examination / surgical instrument group in the examination room or
画像処理装置1580は、3次元データで表わされる3次元部位モデルを、超音波プローブ203からの超音波信号と超音波プローブ203の位置情報とを蓄積して得た3次元超音波モデルに合致するように変形する。そして、画像処理装置1580は、変形した3次元部位モデルが患者201の生体内部の正確な位置にあるように3次元表示データを生成して、シートディスプレイ1595に3次元表示させる。
The
なお、本実施形態において、シートディスプレイ1595は患者201の生体表面と同じなので、画像処理装置1580は、患者201およびシートディスプレイ1595の位置および向きを光学マーカの撮像画像から検出すればよく、患者201とシートディスプレイ1595との位置関係を算出する必要はない。
In the present embodiment, since the
《画像処理装置の機能構成》
図16は、本実施形態に係る画像処理装置1580の機能構成を示すブロック図である。なお、図16において、図4または図14と同様の機能構成部には同じ参照番号を付して、説明を省略する。
<< Functional configuration of image processing apparatus >>
FIG. 16 is a block diagram illustrating a functional configuration of the
シート位置算出部1622は、光学マーカ画像受信部421が受信した光学マーカの撮影画像に基づいて、シートディスプレイ1595の正確な位置を算出する。
The sheet
表示画像生成部1623のシート画像生成部1633は、患者位置検出部420が検出した患者201の位置に調整したSLTデータによる3次元部位モデルが重なるように、シート位置算出部1622で算出したシートディスプレイ位置に3次元表示する表示画像を生成する。表示画像送信部1625は、シート画像生成部1633が生成した患者201の位置に重なる画像データを、通信制御部413を介して、シートディスプレイ1595に表示すべく送信する。
The sheet
なお、シート画像生成部1633の構成および動作は、3次元部位モデルの表示先がHMD295からシートディスプレイ1595に変わるのみで第2実施形態と同様なので、ここでは詳説を省略する。しかし、本例では、シートディスプレイ1595が非剛体変形するので、シート状非剛体の変形操作が必要であり、既存の技術が利用できる。
Note that the configuration and operation of the sheet
本実施形態によれば、変形された3次元部位モデルを患者の生体上のシートディスプレイに表示するので、視線などを考慮することなく普通に患者の生体内部の実時間における部位の状態を正確な位置において認識することができる。 According to the present embodiment, since the deformed three-dimensional part model is displayed on the sheet display on the patient's living body, the state of the part in the real time inside the patient's living body is usually accurately determined without considering the line of sight or the like. Can be recognized in position.
[第5実施形態]
次に、本発明の第5実施形態に係る医療支援システムについて説明する。本実施形態に係る医療支援システムは、上記第3実施形態と比べると、腹腔鏡1391の観察画像に変形した3次元部位モデルを重畳した画像を、ネットワークを介して通信端末に表示させる点で異なる。その他の構成および動作は、第3実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
[Fifth Embodiment]
Next, a medical support system according to a fifth embodiment of the invention will be described. The medical support system according to the present embodiment is different from the third embodiment in that an image obtained by superimposing a deformed three-dimensional part model on an observation image of the
《医療支援システムの構成》
図17は、本実施形態に係る医療支援システム1700の構成を示すブロック図である。なお、図17において、図2B、図13B、図15と同様の構成要素には同じ参照番号を付して、説明を省略する。
《Configuration of medical support system》
FIG. 17 is a block diagram illustrating a configuration of a
図17において、画像処理装置1780は、図13Bの画像処理装置と同様に腹腔鏡1391の観察画像に重畳して3次元部位モデルを表示する。同時に、画像処理装置1780は、腹腔鏡1391で撮像した観察画像に3次元部位モデルを重畳した画像を生成し、ネットワーク1790を介して、外部の他の医師やユーザに配信する。配信先には、ノートPC1791や、スマートフォンやタブレットなどの携帯端末1792、モニタ179i、サーバ179nなどが接続されてよい。
In FIG. 17, the
本実施形態によれば、診察室や手術室の外部において他の医師や第三者も患者の生体内部の腹腔鏡の観察画像を監視でき、より正確な医療を支援することができる。 According to the present embodiment, other doctors and third parties can monitor the observation image of the laparoscope inside the living body of the patient outside the examination room or the operating room, and can support more accurate medical care.
[他の実施形態]
上記実施形態においては、本発明の医療支援システムの限られた構成例しか示されていない。図18は、本発明の医療支援システムの種々の構成例1800を示す図である。本発明は図18の例に限定されないが、図18から本発明の適用範囲が明らかである。
[Other Embodiments]
In the above embodiment, only a limited configuration example of the medical support system of the present invention is shown. FIG. 18 is a diagram showing various configuration examples 1800 of the medical support system of the present invention. The present invention is not limited to the example of FIG. 18, but the scope of application of the present invention is clear from FIG.
図18の構成例1800には、変形して表示する3次元部位モデル1801と、3次元部位モデル1801の位置合わせに使用される3次元超音波モデル1802と、部位モデル合致方法(位置合わせ方法)1803と、3次元部位モデル1801を重ね合わせる対象1804と、表示部1805と、が示されている。これらは、それぞれ独立して組み合わされて、より好適な位置合わせと重ね合わせが実現される。
The configuration example 1800 in FIG. 18 includes a three-
また、実施形態を参照して本発明を説明したが、本発明は上記実施形態に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。また、それぞれの実施形態に含まれる別々の特徴を如何様に組み合わせたシステムまたは装置も、本発明の範疇に含まれる。 Although the present invention has been described with reference to the embodiments, the present invention is not limited to the above-described embodiments. Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention. In addition, a system or an apparatus in which different features included in each embodiment are combined in any way is also included in the scope of the present invention.
また、本発明は、複数の機器から構成されるシステムに適用されてもよいし、単体の装置に適用されてもよい。さらに、本発明は、実施形態の機能を実現する制御プログラムが、システムあるいは装置に直接あるいは遠隔から供給される場合にも適用可能である。したがって、本発明の機能をコンピュータで実現するために、コンピュータにインストールされるプログラム、あるいはそのプログラムを格納した媒体、そのプログラムをダウンロードさせるWWW(World Wide Web)サーバも、本発明の範疇に含まれる。特に、少なくとも、上述した実施形態に含まれる処理ステップをコンピュータに実行させるプログラムを格納した非一時的コンピュータ可読媒体(non-transitory computer readable medium)は本発明の範疇に含まれる。 In addition, the present invention may be applied to a system composed of a plurality of devices, or may be applied to a single device. Furthermore, the present invention can also be applied to a case where a control program that realizes the functions of the embodiments is supplied directly or remotely to a system or apparatus. Therefore, in order to realize the functions of the present invention on a computer, a program installed in the computer, a medium storing the program, and a WWW (World Wide Web) server that downloads the program are also included in the scope of the present invention. . In particular, at least a non-transitory computer readable medium storing a program for causing a computer to execute the processing steps included in the above-described embodiments is included in the scope of the present invention.
Claims (15)
前記3次元部位モデルから、所定の特徴を有する複数の第1特徴点の位置情報を抽出する第1特徴点抽出手段と、
前記患者に対して超音波プローブを用いて取得した超音波データと、前記超音波データを取得した前記超音波プローブの位置および向きデータとを対応付けて蓄積し、前記超音波データと前記位置および向きデータとを用いて、3次元超音波モデルのデータを生成する超音波モデル生成手段と、
前記3次元超音波モデルから、前記所定の特徴を有する複数の第2特徴点の位置情報を抽出する第2特徴点抽出手段と、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように、前記3次元部位モデルを変形する変形手段と、
前記変形手段により変形された前記3次元部位モデルの投影画像を表示する表示手段と、
を備える医療支援システム。 A part model generation means for generating data of a three-dimensional part model based on a tomographic image group of a patient;
First feature point extraction means for extracting position information of a plurality of first feature points having a predetermined feature from the three-dimensional part model;
Ultrasound data acquired using an ultrasound probe for the patient and the position and orientation data of the ultrasound probe from which the ultrasound data was acquired are stored in association with each other, and the ultrasound data and the position and Ultrasonic model generation means for generating data of a three-dimensional ultrasonic model using the orientation data;
Second feature point extracting means for extracting position information of a plurality of second feature points having the predetermined feature from the three-dimensional ultrasonic model;
Deformation means for deforming the three-dimensional site model so that the plurality of first feature points and the plurality of second feature points overlap;
Display means for displaying a projection image of the three-dimensional part model deformed by the deformation means;
A medical support system comprising:
前記3次元部位モデルを、各々が少なくとも1つの前記第1特徴点を含む複数の3次元領域に分割する分割領域生成手段と、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように前記複数の3次元領域のそれぞれを位置調整し、位置調整された前記複数の3次元領域を互いに連結する分割領域連結手段と、
を有し、
前記表示手段は、前記分割領域連結手段が連結した前記複数の3次元領域を前記3次元部位モデルとして表示する請求項1に記載の医療支援システム。 The deformation means includes
A divided region generating means for dividing the three-dimensional part model into a plurality of three-dimensional regions each including at least one first feature point;
Divided region connection that adjusts the position of each of the plurality of three-dimensional regions so that the plurality of first feature points and the plurality of second feature points overlap each other, and connects the plurality of three-dimensional regions that have been adjusted to each other. Means,
Have
The medical support system according to claim 1, wherein the display unit displays the plurality of three-dimensional regions connected by the divided region connecting unit as the three-dimensional part model.
前記表示手段は、前記3次元血管モデルを前記3次元部位モデルとして表示する、請求項1または2に記載の医療支援システム。 The plurality of first feature points are feature points of a three-dimensional blood vessel model included in a target region of the three-dimensional site model, and the plurality of second feature points are included in the target region of the three-dimensional ultrasound model. It is a feature point of the included 3D blood vessel model,
The medical support system according to claim 1, wherein the display unit displays the three-dimensional blood vessel model as the three-dimensional site model.
撮像された前記第1位置検出用器具の位置および向きに基づいて、前記変形手段により変形された前記3次元部位モデルの位置、向きおよび大きさを調整する第1調整手段と、
をさらに備え、
前記表示手段は、前記変形され調整された3次元部位モデルを、前記患者の生体または生体画像に重なるように表示する、請求項1乃至3のいずれか1項に記載の医療支援システム。 Imaging means for imaging the living body and a first position detection instrument for detecting the position and orientation of the living body or the position and orientation of the living body image;
First adjusting means for adjusting the position, orientation and size of the three-dimensional part model deformed by the deforming means based on the imaged position and orientation of the first position detecting instrument;
Further comprising
The medical support system according to any one of claims 1 to 3, wherein the display unit displays the deformed and adjusted three-dimensional part model so as to overlap the living body or the living body image of the patient.
前記第2位置検出用器具の位置および向きと前記超音波プローブの位置および向きとに基づいて、前記変形手段により変形された前記3次元部位モデルの位置、向きおよび大きさを調整する第2調整手段と、
をさらに備え、
前記表示手段は、前記変形され調整された3次元部位モデルを、前記腹腔鏡が撮像した生体内画像に重なるように表示する、請求項1乃至3のいずれか1項に記載の医療支援システム。 A laparoscope for imaging the inside of the living body, to which a second position detection instrument is fixed;
Second adjustment for adjusting the position, orientation and size of the three-dimensional part model deformed by the deformation means based on the position and orientation of the second position detecting instrument and the position and orientation of the ultrasonic probe Means,
Further comprising
The medical support system according to any one of claims 1 to 3, wherein the display unit displays the deformed and adjusted three-dimensional site model so as to overlap an in-vivo image captured by the laparoscope.
前記3次元部位モデルから、所定の特徴を有する複数の第1特徴点の位置情報を抽出する第1特徴点抽出ステップと、
前記患者に対して超音波プローブを用いて取得した超音波データと、前記超音波データを取得した前記超音波プローブの位置および向きデータとを対応付けて蓄積手段に蓄積する蓄積ステップと、
前記超音波データと前記位置および向きデータとを用いて、3次元超音波モデルのデータを生成する超音波モデル生成ステップと、
前記3次元超音波モデルから、前記所定の特徴を有する複数の第2特徴点の位置情報を抽出する第2特徴点抽出ステップと、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように、前記3次元部位モデルを変形する変形ステップと、
前記変形ステップにおいて変形された前記3次元部位モデルの投影画像を表示する表示ステップと、
を含む医療支援方法。 A site model generation step for generating data of a 3D site model based on a tomographic image group of a patient;
A first feature point extracting step of extracting position information of a plurality of first feature points having a predetermined feature from the three-dimensional part model;
An accumulation step of associating and accumulating in the accumulation means the ultrasound data acquired using an ultrasound probe for the patient and the position and orientation data of the ultrasound probe from which the ultrasound data was acquired;
An ultrasonic model generation step of generating data of a three-dimensional ultrasonic model using the ultrasonic data and the position and orientation data;
A second feature point extracting step of extracting position information of a plurality of second feature points having the predetermined feature from the three-dimensional ultrasonic model;
A deforming step of deforming the three-dimensional site model so that the plurality of first feature points and the plurality of second feature points overlap;
A display step of displaying a projected image of the three-dimensional part model deformed in the deformation step;
Including medical support methods.
前記3次元部位モデルから、所定の特徴を有する複数の第1特徴点の位置情報を抽出する第1特徴点抽出手段と、
前記患者に対して超音波プローブを用いて取得した超音波データと、前記超音波データを取得した前記超音波プローブの位置および向きデータとを対応付けて蓄積する蓄積手段と、
前記超音波データと前記位置および向きデータとを用いて、3次元超音波モデルのデータを生成する超音波モデル生成手段と、
前記3次元超音波モデルから、前記所定の特徴を有する複数の第2特徴点の位置情報を抽出する第2特徴点抽出手段と、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように、前記3次元部位モデルを変形する変形手段と、
前記変形手段により変形された前記3次元部位モデルの投影画像を表示手段に送信する送信手段と、
を備える画像処理装置。 Receiving means for receiving data of a three-dimensional site model generated based on a tomographic image group of a patient;
First feature point extraction means for extracting position information of a plurality of first feature points having a predetermined feature from the three-dimensional part model;
Accumulation means for accumulating the ultrasonic data acquired using an ultrasonic probe for the patient and the position and orientation data of the ultrasonic probe from which the ultrasonic data was acquired;
An ultrasonic model generating means for generating data of a three-dimensional ultrasonic model using the ultrasonic data and the position and orientation data;
Second feature point extracting means for extracting position information of a plurality of second feature points having the predetermined feature from the three-dimensional ultrasonic model;
Deformation means for deforming the three-dimensional site model so that the plurality of first feature points and the plurality of second feature points overlap;
Transmitting means for transmitting a projection image of the three-dimensional part model deformed by the deforming means to a display means;
An image processing apparatus comprising:
前記3次元部位モデルから、所定の特徴を有する複数の第1特徴点の位置情報を抽出する第1特徴点抽出ステップと、
前記患者に対して超音波プローブを用いて取得した超音波データと、前記超音波データを取得した前記超音波プローブの位置および向きデータとを対応付けて蓄積手段に蓄積する蓄積ステップと、
前記超音波データと前記位置および向きデータとを用いて、3次元超音波モデルのデータを生成する超音波モデル生成ステップと、
前記3次元超音波モデルから、前記所定の特徴を有する複数の第2特徴点の位置情報を抽出する第2特徴点抽出ステップと、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように、前記3次元部位モデルを変形する変形ステップと、
前記変形ステップにおいて変形された前記3次元部位モデルの投影画像を表示手段に送信する送信ステップと、
を含む画像処理装置の制御方法。 A receiving step of receiving data of a three-dimensional site model generated based on a tomographic image group of a patient;
A first feature point extracting step of extracting position information of a plurality of first feature points having a predetermined feature from the three-dimensional part model;
An accumulation step of associating and accumulating in the accumulation means the ultrasound data acquired using an ultrasound probe for the patient and the position and orientation data of the ultrasound probe from which the ultrasound data was acquired;
An ultrasonic model generation step of generating data of a three-dimensional ultrasonic model using the ultrasonic data and the position and orientation data;
A second feature point extracting step of extracting position information of a plurality of second feature points having the predetermined feature from the three-dimensional ultrasonic model;
A deforming step of deforming the three-dimensional site model so that the plurality of first feature points and the plurality of second feature points overlap;
A transmission step of transmitting to the display means a projection image of the three-dimensional region model deformed in the deformation step;
A method for controlling an image processing apparatus.
前記3次元部位モデルから、所定の特徴を有する複数の第1特徴点の位置情報を抽出する第1特徴点抽出ステップと、
前記患者に対して超音波プローブを用いて取得した超音波データと、前記超音波データを取得した前記超音波プローブの位置および向きデータとを対応付けて蓄積手段に蓄積する蓄積ステップと、
前記超音波データと前記位置および向きデータとを用いて、3次元超音波モデルのデータを生成する超音波モデル生成ステップと、
前記3次元超音波モデルから、前記所定の特徴を有する複数の第2特徴点の位置情報を抽出する第2特徴点抽出ステップと、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように、前記3次元部位モデルを変形する変形ステップと、
前記変形ステップにおいて変形された前記3次元部位モデルの投影画像を表示手段に送信する送信ステップと、
をコンピュータに実行させる画像処理装置の制御プログラム。 A receiving step of receiving data of a three-dimensional site model generated based on a tomographic image group of a patient;
A first feature point extracting step of extracting position information of a plurality of first feature points having a predetermined feature from the three-dimensional part model;
An accumulation step of associating and accumulating in the accumulation means the ultrasound data acquired using an ultrasound probe for the patient and the position and orientation data of the ultrasound probe from which the ultrasound data was acquired;
An ultrasonic model generation step of generating data of a three-dimensional ultrasonic model using the ultrasonic data and the position and orientation data;
A second feature point extracting step of extracting position information of a plurality of second feature points having the predetermined feature from the three-dimensional ultrasonic model;
A deforming step of deforming the three-dimensional site model so that the plurality of first feature points and the plurality of second feature points overlap;
A transmission step of transmitting to the display means a projection image of the three-dimensional region model deformed in the deformation step;
Control program for an image processing apparatus that causes a computer to execute
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015084771A JP6510301B2 (en) | 2015-04-17 | 2015-04-17 | MEDICAL SUPPORT SYSTEM, MEDICAL SUPPORT METHOD, IMAGE PROCESSING APPARATUS, AND CONTROL METHOD AND CONTROL PROGRAM THEREOF |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015084771A JP6510301B2 (en) | 2015-04-17 | 2015-04-17 | MEDICAL SUPPORT SYSTEM, MEDICAL SUPPORT METHOD, IMAGE PROCESSING APPARATUS, AND CONTROL METHOD AND CONTROL PROGRAM THEREOF |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016202351A true JP2016202351A (en) | 2016-12-08 |
JP6510301B2 JP6510301B2 (en) | 2019-05-08 |
Family
ID=57486235
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015084771A Active JP6510301B2 (en) | 2015-04-17 | 2015-04-17 | MEDICAL SUPPORT SYSTEM, MEDICAL SUPPORT METHOD, IMAGE PROCESSING APPARATUS, AND CONTROL METHOD AND CONTROL PROGRAM THEREOF |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6510301B2 (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110021386A (en) * | 2017-07-27 | 2019-07-16 | 北大医疗信息技术有限公司 | Feature extracting method and feature deriving means, equipment, storage medium |
WO2019155931A1 (en) * | 2018-02-09 | 2019-08-15 | ソニー株式会社 | Surgical system, image processing device, and image processing method |
JP2020501691A (en) * | 2016-12-16 | 2020-01-23 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | System that provides images that guide surgery |
JP6660659B1 (en) * | 2019-02-01 | 2020-03-11 | TCC Media Lab株式会社 | Synthetic image generation system and position information correction system |
JP2020092816A (en) * | 2018-12-12 | 2020-06-18 | キヤノンメディカルシステムズ株式会社 | Medical image processing apparatus, x-ray ct apparatus, and medical image processing method |
JP2020518937A (en) * | 2017-05-04 | 2020-06-25 | エムアイエム ソフトウェア, インコーポレイテッド | Predictive fusion system and method |
JP2020137103A (en) * | 2019-02-19 | 2020-08-31 | 株式会社シンクアウト | Information processing system and information processing program |
JP2021523784A (en) * | 2018-05-14 | 2021-09-09 | ノバラッド コーポレイションNovarad Corporation | Alignment of patient image data with actual patient scene using optical cord attached to patient |
WO2023162657A1 (en) * | 2022-02-28 | 2023-08-31 | 富士フイルム株式会社 | Medical assistance device, medical assistance device operation method, and operation program |
WO2023243280A1 (en) * | 2022-06-15 | 2023-12-21 | 株式会社アールテック | Medical image processing device and medical image processing method |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007136133A (en) * | 2005-11-18 | 2007-06-07 | Toshio Fukuda | System for presenting augmented reality |
JP2009291614A (en) * | 2008-06-04 | 2009-12-17 | Medison Co Ltd | System and method for matching ultrasound images and ct image |
JP2011031042A (en) * | 2009-07-31 | 2011-02-17 | Medison Co Ltd | Ultrasonic system and sensor coordinate calibration method |
US20140321726A1 (en) * | 2013-04-25 | 2014-10-30 | Samsung Medison Co., Ltd. | Method and apparatus for image registration |
JP2014221175A (en) * | 2013-05-14 | 2014-11-27 | 健司 三木 | Ultrasonic diagnostic system, image processor and control method and control program therefor |
-
2015
- 2015-04-17 JP JP2015084771A patent/JP6510301B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007136133A (en) * | 2005-11-18 | 2007-06-07 | Toshio Fukuda | System for presenting augmented reality |
JP2009291614A (en) * | 2008-06-04 | 2009-12-17 | Medison Co Ltd | System and method for matching ultrasound images and ct image |
JP2011031042A (en) * | 2009-07-31 | 2011-02-17 | Medison Co Ltd | Ultrasonic system and sensor coordinate calibration method |
US20140321726A1 (en) * | 2013-04-25 | 2014-10-30 | Samsung Medison Co., Ltd. | Method and apparatus for image registration |
JP2014221175A (en) * | 2013-05-14 | 2014-11-27 | 健司 三木 | Ultrasonic diagnostic system, image processor and control method and control program therefor |
Non-Patent Citations (1)
Title |
---|
三木 健司: "AR(拡張現実)を応用した術中超音波肝切除ナビゲーションシステムの開発", 新医療, vol. 第41巻、第5号, JPN6019001346, May 2014 (2014-05-01), pages 118 - 121, ISSN: 0003959622 * |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020501691A (en) * | 2016-12-16 | 2020-01-23 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | System that provides images that guide surgery |
US11571180B2 (en) | 2016-12-16 | 2023-02-07 | Koninklijke Philips N.V. | Systems providing images guiding surgery |
JP2020518937A (en) * | 2017-05-04 | 2020-06-25 | エムアイエム ソフトウェア, インコーポレイテッド | Predictive fusion system and method |
US11580651B2 (en) | 2017-05-04 | 2023-02-14 | Mim Software, Inc. | System and method for predictive fusion |
CN110021386A (en) * | 2017-07-27 | 2019-07-16 | 北大医疗信息技术有限公司 | Feature extracting method and feature deriving means, equipment, storage medium |
WO2019155931A1 (en) * | 2018-02-09 | 2019-08-15 | ソニー株式会社 | Surgical system, image processing device, and image processing method |
JP2021523784A (en) * | 2018-05-14 | 2021-09-09 | ノバラッド コーポレイションNovarad Corporation | Alignment of patient image data with actual patient scene using optical cord attached to patient |
US12033741B2 (en) | 2018-05-14 | 2024-07-09 | Novarad Corporation | Aligning image data of a patient with actual views of the patient using an optical code affixed to the patient |
JP7190145B2 (en) | 2018-05-14 | 2022-12-15 | ノバラッド コーポレイション | Alignment of patient image data with the patient's actual scene using an optical code attached to the patient |
JP2020092816A (en) * | 2018-12-12 | 2020-06-18 | キヤノンメディカルシステムズ株式会社 | Medical image processing apparatus, x-ray ct apparatus, and medical image processing method |
JP7164423B2 (en) | 2018-12-12 | 2022-11-01 | キヤノンメディカルシステムズ株式会社 | MEDICAL IMAGE PROCESSING APPARATUS, X-RAY CT APPARATUS, AND MEDICAL IMAGE PROCESSING METHOD |
US11055873B2 (en) | 2019-02-01 | 2021-07-06 | Tcc Media Lab Co., Ltd | Composite image generation system and position information correction system |
WO2020157984A1 (en) * | 2019-02-01 | 2020-08-06 | TCC Media Lab株式会社 | Composite image generation system and position information correction system |
JP6660659B1 (en) * | 2019-02-01 | 2020-03-11 | TCC Media Lab株式会社 | Synthetic image generation system and position information correction system |
JP2020137103A (en) * | 2019-02-19 | 2020-08-31 | 株式会社シンクアウト | Information processing system and information processing program |
JP7304508B2 (en) | 2019-02-19 | 2023-07-07 | 株式会社シンクアウト | Information processing system and information processing program |
WO2023162657A1 (en) * | 2022-02-28 | 2023-08-31 | 富士フイルム株式会社 | Medical assistance device, medical assistance device operation method, and operation program |
WO2023243280A1 (en) * | 2022-06-15 | 2023-12-21 | 株式会社アールテック | Medical image processing device and medical image processing method |
Also Published As
Publication number | Publication date |
---|---|
JP6510301B2 (en) | 2019-05-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6510301B2 (en) | MEDICAL SUPPORT SYSTEM, MEDICAL SUPPORT METHOD, IMAGE PROCESSING APPARATUS, AND CONTROL METHOD AND CONTROL PROGRAM THEREOF | |
US10881353B2 (en) | Machine-guided imaging techniques | |
EP3081184B1 (en) | System and method for fused image based navigation with late marker placement | |
JP5858636B2 (en) | Image processing apparatus, processing method thereof, and program | |
JP6049202B2 (en) | Image processing apparatus, method, and program | |
JP5504028B2 (en) | Observation support system, method and program | |
JP5995408B2 (en) | Information processing apparatus, photographing system, information processing method, and program for causing computer to execute information processing | |
JPWO2013141155A1 (en) | Image complementation system for image occlusion area, image processing apparatus and program thereof | |
US20230114385A1 (en) | Mri-based augmented reality assisted real-time surgery simulation and navigation | |
JP6290723B2 (en) | Surgery support device and surgery support system | |
JP2009028362A (en) | Medical image processor and medical image diagnosis apparatus | |
EP3328305B1 (en) | Microscope tracking based on video analysis | |
CN108629845A (en) | Operation piloting method, device, equipment, system and readable storage medium storing program for executing | |
JP6493885B2 (en) | Image alignment apparatus, method of operating image alignment apparatus, and image alignment program | |
US11596373B2 (en) | Medical imaging apparatus providing AR-support | |
WO2024067753A1 (en) | Registration method, registration system, navigation information determination method, and navigation system | |
JP6476125B2 (en) | Image processing apparatus and surgical microscope system | |
US20150348311A1 (en) | Method and apparatus for determining a surface topography of a body in a coordinate system fixed in space and/or fixed on the body | |
JP2014104328A (en) | Operation support system, operation support method, and operation support program | |
JP7027029B2 (en) | Ultrasound diagnostic equipment and medical image processing equipment | |
EP4128145B1 (en) | Combining angiographic information with fluoroscopic images | |
JP2013048688A (en) | Image processing device, image processing method and program | |
JP7495216B2 (en) | Endoscopic surgery support device, endoscopic surgery support method, and program | |
US12190410B2 (en) | Augmenting a medical image with an intelligent ruler | |
WO2007117695A2 (en) | Human anatomic mapping and positioning and anatomic targeting accuracy |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180330 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20180330 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20180330 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181212 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190122 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190402 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190404 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6510301 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |