[go: up one dir, main page]

JP2016202351A - Medical support system, medical support method, image processing apparatus, control method and control program thereof - Google Patents

Medical support system, medical support method, image processing apparatus, control method and control program thereof Download PDF

Info

Publication number
JP2016202351A
JP2016202351A JP2015084771A JP2015084771A JP2016202351A JP 2016202351 A JP2016202351 A JP 2016202351A JP 2015084771 A JP2015084771 A JP 2015084771A JP 2015084771 A JP2015084771 A JP 2015084771A JP 2016202351 A JP2016202351 A JP 2016202351A
Authority
JP
Japan
Prior art keywords
dimensional
model
data
ultrasonic
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015084771A
Other languages
Japanese (ja)
Other versions
JP6510301B2 (en
Inventor
健司 三木
Kenji Miki
健司 三木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2015084771A priority Critical patent/JP6510301B2/en
Publication of JP2016202351A publication Critical patent/JP2016202351A/en
Application granted granted Critical
Publication of JP6510301B2 publication Critical patent/JP6510301B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Endoscopes (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a medical support system which allows a user to easily recognize the state of a region in the actual time inside a living body of a patient.SOLUTION: A medical support system comprises: a region model generation unit 110 which generates data of a three-dimensional region model on the basis of a tomographic image group of a patient; a first feature point extraction unit 120 which extracts position information of a first feature point having a prescribed feature; an ultrasonic model generation unit 130 which accumulates ultrasonic data acquired by using an ultrasonic probe and position and direction data of the ultrasonic probe by associating them with each other and generates data of a three-dimensional ultrasonic model by using the ultrasonic data and position and direction data; a second feature point extraction unit 140 which extracts position information of a second feature point having a prescribed feature from the three-dimensional ultrasonic model; a deformation unit 150 which deforms a three-dimensional region model so as to overlap the plurality of first feature points with the plurality of second feature points; and a display unit 160 which displays a projection image of the three-dimensional region model deformed by the deformation unit.SELECTED DRAWING: Figure 1

Description

本発明は、患者体内の3次元画像を表示して医療を支援する技術に関する。   The present invention relates to a technique for supporting medical treatment by displaying a three-dimensional image in a patient body.

上記技術分野において、特許文献1には、超音波画像と断面が一致するCTまたはMRIの断層画像を表示する技術が開示されている。また、特許文献2には、超音波画像の表示位置をCTまたはMRIの断層画像上に表示する技術が開示されている。また、特許文献3には、3次元超音波画像と断面が略一致するCTまたはMRIの3次元画像を表示する技術が開示されている。   In the above technical field, Patent Document 1 discloses a technique for displaying a CT or MRI tomographic image whose cross section coincides with an ultrasonic image. Patent Document 2 discloses a technique for displaying the display position of an ultrasonic image on a CT or MRI tomographic image. Patent Document 3 discloses a technique for displaying a CT or MRI three-dimensional image whose cross section substantially matches a three-dimensional ultrasonic image.

特開2008−188193号公報JP 2008-188193 A 特開2012−223416号公報JP 2012-223416 A 特開2013−063342号公報JP 2013-066332 A

しかしながら、上記文献に記載の技術は、超音波画像とCTあるいはMRI画像との位置合わせをして同じ断面画像を参照可能に並べて表示するが、患者の生体内部の実時間における部位の状態を認識することが難しかった。   However, the technique described in the above document aligns the ultrasonic image and the CT or MRI image and displays the same cross-sectional image so that it can be referred to, but recognizes the state of the part in the patient's living body in real time. It was difficult to do.

本発明の目的は、上述の課題を解決する技術を提供することにある。   The objective of this invention is providing the technique which solves the above-mentioned subject.

上記目的を達成するため、本発明に係る医療支援システムは、
患者の断層撮影画像群に基づいて、3次元部位モデルのデータを生成する部位モデル生成手段と、
前記3次元部位モデルから、所定の特徴を有する複数の第1特徴点の位置情報を抽出する第1特徴点抽出手段と、
前記患者に対して超音波プローブを用いて取得した超音波データと、前記超音波データを取得した前記超音波プローブの位置および向きデータとを対応付けて蓄積し、前記超音波データと前記位置および向きデータとを用いて、3次元超音波モデルのデータを生成する超音波モデル生成手段と、
前記3次元超音波モデルから、前記所定の特徴を有する複数の第2特徴点の位置情報を抽出する第2特徴点抽出手段と、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように、前記3次元部位モデルを変形する変形手段と、
前記変形手段により変形された前記3次元部位モデルの投影画像を表示する表示手段と、
を備える。
In order to achieve the above object, a medical support system according to the present invention includes:
A part model generation means for generating data of a three-dimensional part model based on a tomographic image group of a patient;
First feature point extraction means for extracting position information of a plurality of first feature points having a predetermined feature from the three-dimensional part model;
Ultrasound data acquired using an ultrasound probe for the patient and the position and orientation data of the ultrasound probe from which the ultrasound data was acquired are stored in association with each other, and the ultrasound data and the position and Ultrasonic model generation means for generating data of a three-dimensional ultrasonic model using the orientation data;
Second feature point extracting means for extracting position information of a plurality of second feature points having the predetermined feature from the three-dimensional ultrasonic model;
Deformation means for deforming the three-dimensional site model so that the plurality of first feature points and the plurality of second feature points overlap;
Display means for displaying a projection image of the three-dimensional part model deformed by the deformation means;
Is provided.

上記目的を達成するため、本発明に係る医療支援方法は、
患者の断層撮影画像群に基づいて、3次元部位モデルのデータを生成する部位モデル生成ステップと、
前記3次元部位モデルから、所定の特徴を有する複数の第1特徴点の位置情報を抽出する第1特徴点抽出ステップと、
前記患者に対して超音波プローブを用いて取得した超音波データと、前記超音波データを取得した前記超音波プローブの位置および向きデータとを対応付けて蓄積手段に蓄積する蓄積ステップと、
前記超音波データと前記位置および向きデータとを用いて、3次元超音波モデルのデータを生成する超音波モデル生成ステップと、
前記3次元超音波モデルから、前記所定の特徴を有する複数の第2特徴点の位置情報を抽出する第2特徴点抽出ステップと、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように、前記3次元部位モデルを変形する変形ステップと、
前記変形ステップにおいて変形された前記3次元部位モデルの投影画像を表示する表示ステップと、
を含む。
In order to achieve the above object, a medical support method according to the present invention comprises:
A site model generation step for generating data of a 3D site model based on a tomographic image group of a patient;
A first feature point extracting step of extracting position information of a plurality of first feature points having a predetermined feature from the three-dimensional part model;
An accumulation step of associating and accumulating in the accumulation means the ultrasound data acquired using an ultrasound probe for the patient and the position and orientation data of the ultrasound probe from which the ultrasound data was acquired;
An ultrasonic model generation step of generating data of a three-dimensional ultrasonic model using the ultrasonic data and the position and orientation data;
A second feature point extracting step of extracting position information of a plurality of second feature points having the predetermined feature from the three-dimensional ultrasonic model;
A deforming step of deforming the three-dimensional site model so that the plurality of first feature points and the plurality of second feature points overlap;
A display step of displaying a projected image of the three-dimensional part model deformed in the deformation step;
including.

上記目的を達成するため、本発明に係る画像処理装置は、
患者の断層撮影画像群に基づいて生成された3次元部位モデルのデータを受信する受信手段と、
前記3次元部位モデルから、所定の特徴を有する複数の第1特徴点の位置情報を抽出する第1特徴点抽出手段と、
前記患者に対して超音波プローブを用いて取得した超音波データと、前記超音波データを取得した前記超音波プローブの位置および向きデータとを対応付けて蓄積する蓄積手段と、
前記超音波データと前記位置および向きデータとを用いて、3次元超音波モデルのデータを生成する超音波モデル生成手段と、
前記3次元超音波モデルから、前記所定の特徴を有する複数の第2特徴点の位置情報を抽出する第2特徴点抽出手段と、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように、前記3次元部位モデルを変形する変形手段と、
前記変形手段により変形された前記3次元部位モデルの投影画像を表示手段に送信する送信手段と、
を備える。
In order to achieve the above object, an image processing apparatus according to the present invention provides:
Receiving means for receiving data of a three-dimensional site model generated based on a tomographic image group of a patient;
First feature point extraction means for extracting position information of a plurality of first feature points having a predetermined feature from the three-dimensional part model;
Accumulation means for accumulating the ultrasonic data acquired using an ultrasonic probe for the patient and the position and orientation data of the ultrasonic probe from which the ultrasonic data was acquired;
An ultrasonic model generating means for generating data of a three-dimensional ultrasonic model using the ultrasonic data and the position and orientation data;
Second feature point extracting means for extracting position information of a plurality of second feature points having the predetermined feature from the three-dimensional ultrasonic model;
Deformation means for deforming the three-dimensional site model so that the plurality of first feature points and the plurality of second feature points overlap;
Transmitting means for transmitting a projection image of the three-dimensional part model deformed by the deforming means to a display means;
Is provided.

上記目的を達成するため、本発明に係る画像処理装置の制御方法は、
患者の断層撮影画像群に基づいて生成された3次元部位モデルのデータを受信する受信ステップと、
前記3次元部位モデルから、所定の特徴を有する複数の第1特徴点の位置情報を抽出する第1特徴点抽出ステップと、
前記患者に対して超音波プローブを用いて取得した超音波データと、前記超音波データを取得した前記超音波プローブの位置および向きデータとを対応付けて蓄積手段に蓄積する蓄積ステップと、
前記超音波データと前記位置および向きデータとを用いて、3次元超音波モデルのデータを生成する超音波モデル生成ステップと、
前記3次元超音波モデルから、前記所定の特徴を有する複数の第2特徴点の位置情報を抽出する第2特徴点抽出ステップと、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように、前記3次元部位モデルを変形する変形ステップと、
前記変形ステップにおいて変形された前記3次元部位モデルの投影画像を表示手段に送信する送信ステップと、
を含む。
In order to achieve the above object, a method for controlling an image processing apparatus according to the present invention includes:
A receiving step of receiving data of a three-dimensional site model generated based on a tomographic image group of a patient;
A first feature point extracting step of extracting position information of a plurality of first feature points having a predetermined feature from the three-dimensional part model;
An accumulation step of associating and accumulating in the accumulation means the ultrasound data acquired using an ultrasound probe for the patient and the position and orientation data of the ultrasound probe from which the ultrasound data was acquired;
An ultrasonic model generation step of generating data of a three-dimensional ultrasonic model using the ultrasonic data and the position and orientation data;
A second feature point extracting step of extracting position information of a plurality of second feature points having the predetermined feature from the three-dimensional ultrasonic model;
A deforming step of deforming the three-dimensional site model so that the plurality of first feature points and the plurality of second feature points overlap;
A transmission step of transmitting to the display means a projection image of the three-dimensional region model deformed in the deformation step;
including.

上記目的を達成するため、本発明に係る画像処理装置の制御プログラムは、
患者の断層撮影画像群に基づいて生成された3次元部位モデルのデータを受信する受信ステップと、
前記3次元部位モデルから、所定の特徴を有する複数の第1特徴点の位置情報を抽出する第1特徴点抽出ステップと、
前記患者に対して超音波プローブを用いて取得した超音波データと、前記超音波データを取得した前記超音波プローブの位置および向きデータとを対応付けて蓄積手段に蓄積する蓄積ステップと、
前記超音波データと前記位置および向きデータとを用いて、3次元超音波モデルのデータを生成する超音波モデル生成ステップと、
前記3次元超音波モデルから、前記所定の特徴を有する複数の第2特徴点の位置情報を抽出する第2特徴点抽出ステップと、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように、前記3次元部位モデルを変形する変形ステップと、
前記変形ステップにおいて変形された前記3次元部位モデルの投影画像を表示手段に送信する送信ステップと、
をコンピュータに実行させる。
In order to achieve the above object, a control program for an image processing apparatus according to the present invention provides:
A receiving step of receiving data of a three-dimensional site model generated based on a tomographic image group of a patient;
A first feature point extracting step of extracting position information of a plurality of first feature points having a predetermined feature from the three-dimensional part model;
An accumulation step of associating and accumulating in the accumulation means the ultrasound data acquired using an ultrasound probe for the patient and the position and orientation data of the ultrasound probe from which the ultrasound data was acquired;
An ultrasonic model generation step of generating data of a three-dimensional ultrasonic model using the ultrasonic data and the position and orientation data;
A second feature point extracting step of extracting position information of a plurality of second feature points having the predetermined feature from the three-dimensional ultrasonic model;
A deforming step of deforming the three-dimensional site model so that the plurality of first feature points and the plurality of second feature points overlap;
A transmission step of transmitting to the display means a projection image of the three-dimensional region model deformed in the deformation step;
Is executed on the computer.

本発明によれば、患者の生体内部の実時間における部位の状態を容易に認識することができる。   According to the present invention, it is possible to easily recognize the state of a part in a patient's living body in real time.

本発明の第1実施形態に係る医療支援システムの構成を示すブロック図である。It is a block diagram which shows the structure of the medical assistance system which concerns on 1st Embodiment of this invention. 本発明の第2実施形態に係る医療支援システムの処理概要を示す図である。It is a figure which shows the process outline | summary of the medical assistance system which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る第1特徴点群および第2特徴点群の抽出処理の概要を示す図である。It is a figure which shows the outline | summary of the extraction process of the 1st feature point group and 2nd feature point group which concern on 2nd Embodiment of this invention. 本発明の第2実施形態に係る医療支援システムの構成を示すブロック図である。It is a block diagram which shows the structure of the medical assistance system which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る医療支援システムの動作手順を示すシーケンス図である。It is a sequence diagram which shows the operation | movement procedure of the medical assistance system which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る画像処理装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the image processing apparatus which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る分割領域テーブルの構成を示す図である。It is a figure which shows the structure of the division area table which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る超音波画像テーブルの構成を示す図である。It is a figure which shows the structure of the ultrasonic image table which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る第2特徴点テーブルの構成を示す図である。It is a figure which shows the structure of the 2nd feature point table which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る表示画像生成部の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the display image generation part which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る分割領域連結部の処理を説明する図である。It is a figure explaining the process of the division area connection part which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る分割領域連結テーブルの構成および位置合わせ用情報の例を示す図である。It is a figure which shows the example of the structure of the division | segmentation area | region connection table which concerns on 2nd Embodiment of this invention, and the information for alignment. 本発明の第2実施形態に係る表示データ生成テーブルの構成を示す図である。It is a figure which shows the structure of the display data generation table which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る画像処理装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the image processing apparatus which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る画像処理装置の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the image processing apparatus which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る特徴点抽出処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the feature point extraction process which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る領域分割処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the area division process which concerns on 2nd Embodiment of this invention. 本発明の第3実施形態に係る医療支援システムの処理概要を示すブロック図である。It is a block diagram which shows the process outline | summary of the medical assistance system which concerns on 3rd Embodiment of this invention. 本発明の第3実施形態に係る医療支援システムの構成を示すブロック図である。It is a block diagram which shows the structure of the medical assistance system which concerns on 3rd Embodiment of this invention. 本発明の第3実施形態に係る画像処理装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the image processing apparatus which concerns on 3rd Embodiment of this invention. 本発明の第4実施形態に係る医療支援システムの構成を示すブロック図である。It is a block diagram which shows the structure of the medical assistance system which concerns on 4th Embodiment of this invention. 本発明の第4実施形態に係る画像処理装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the image processing apparatus which concerns on 4th Embodiment of this invention. 本発明の第5実施形態に係る医療支援システムの構成を示すブロック図である。It is a block diagram which shows the structure of the medical assistance system which concerns on 5th Embodiment of this invention. 本発明の医療支援システムの種々の構成例を示す図である。It is a figure which shows the various structural examples of the medical assistance system of this invention.

以下に、図面を参照して、本発明の実施の形態について例示的に詳しく説明する。ただし、以下の実施の形態に記載されている構成要素は単なる例示であり、本発明の技術範囲をそれらのみに限定する趣旨のものではない。なお、本明細書で使用する「部位」は、生体内部の全体あるいはその一部を表わし、例えば、下腹部などの広い範囲から肺、肝臓、胃などの内臓器官やその病巣部分、あるいは血管やリンパ線、神経の一部などの狭い範囲までを表現する文言である。   Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. However, the constituent elements described in the following embodiments are merely examples, and are not intended to limit the technical scope of the present invention only to them. The “part” used in this specification represents the whole or a part of the inside of the living body. For example, from a wide range such as the lower abdomen, internal organs such as the lung, liver, stomach, and the lesion part thereof, blood vessels, It is a word that expresses a narrow area such as a lymph line or a part of a nerve.

[第1実施形態]
本発明の第1実施形態としての医療支援システム100について、図1を用いて説明する。医療支援システム100は、患者体内の3次元部位モデルを表示して医療を支援するシステムである。
[First Embodiment]
A medical support system 100 as a first embodiment of the present invention will be described with reference to FIG. The medical support system 100 is a system that supports medical treatment by displaying a three-dimensional site model in a patient.

図1に示すように、医療支援システム100は、部位モデル生成部110と、第1特徴点抽出部120と、超音波モデル生成部130と、第2特徴点抽出部140と、変形部150と、表示部160と、を含む。部位モデル生成部110は、患者101の断層撮影画像群に基づいて、3次元部位モデル111のデータを生成する。第1特徴点抽出部120は、3次元部位モデル111から、所定の特徴を有する複数の第1特徴点の位置情報を抽出する。超音波モデル生成部130は、患者101に対して超音波プローブ103を用いて取得した超音波データ104と、超音波データ104を取得した超音波プローブ103の位置および向きデータとを対応付けて蓄積し、超音波データ104と位置および向きデータとを用いて、3次元超音波モデル131のデータを生成する。第2特徴点抽出部140は、3次元超音波モデル131から、所定の特徴を有する複数の第2特徴点の位置情報を抽出する。変形部150は、複数の第1特徴点と複数の第2特徴点とが重なるように、3次元部位モデル111を変形する。表示部160は、変形部150により変形された3次元部位モデルの投影画像160を表示する。   As shown in FIG. 1, the medical support system 100 includes a part model generation unit 110, a first feature point extraction unit 120, an ultrasonic model generation unit 130, a second feature point extraction unit 140, and a deformation unit 150. , And display unit 160. The part model generation unit 110 generates data of the three-dimensional part model 111 based on the tomographic image group of the patient 101. The first feature point extraction unit 120 extracts position information of a plurality of first feature points having a predetermined feature from the three-dimensional part model 111. The ultrasonic model generation unit 130 stores the ultrasonic data 104 acquired for the patient 101 using the ultrasonic probe 103 and the position and orientation data of the ultrasonic probe 103 that acquired the ultrasonic data 104 in association with each other. Then, using the ultrasonic data 104 and the position and orientation data, data of the three-dimensional ultrasonic model 131 is generated. The second feature point extraction unit 140 extracts position information of a plurality of second feature points having a predetermined feature from the three-dimensional ultrasonic model 131. The deforming unit 150 deforms the three-dimensional part model 111 so that the plurality of first feature points and the plurality of second feature points overlap. The display unit 160 displays the projection image 160 of the three-dimensional part model deformed by the deformation unit 150.

なお、変形部150は、3次元部位モデル111を、各々が少なくとも1つの第1特徴点を含む複数の3次元領域に分割する分割領域生成部151と、複数の第1特徴点と複数の第2特徴点とが重なるように複数の3次元領域のそれぞれを位置調整し、位置調整された複数の3次元領域153を互いに連結する分割領域連結部152と、を有し、表示部160は、分割領域連結部152が連結した複数の3次元領域161を3次元部位モデルとして表示する。   The deforming unit 150 divides the three-dimensional part model 111 into a plurality of three-dimensional regions each including at least one first feature point, a plurality of first feature points, and a plurality of first feature points. The display unit 160 includes a divided region connecting unit 152 that adjusts the position of each of the plurality of three-dimensional regions so that the two feature points overlap each other and connects the plurality of three-dimensional regions 153 that have been adjusted to each other. A plurality of three-dimensional regions 161 connected by the divided region connecting unit 152 are displayed as a three-dimensional part model.

本実施形態によれば、超音波プローブにより取得した3次元超音波画像に対応して、断層撮影画像群に基づく3次元部位モデルを変換して表示することにより、患者の生体内部の実時間における部位の状態を容易に認識することができる。   According to the present embodiment, the three-dimensional site model based on the tomographic image group is converted and displayed in correspondence with the three-dimensional ultrasonic image acquired by the ultrasonic probe, so that the real time inside the living body of the patient can be obtained. The state of the part can be easily recognized.

[第2実施形態]
次に、本発明の第2実施形態に係る医療支援システムについて説明する。本実施形態に係る医療支援システムは、CT画像やMRI画像から生成された3次元部位モデルデータの注目部位に含まれる3次元血管モデルの第1特徴点を抽出して、注目部位を、第1特徴点を含む領域に分割する。また、超音波プローブで取得した超音波画像データの注目部位に含まれる3次元血管モデルの第2特徴点を抽出する。そして、第2特徴点の3次元位置に第1特徴点の3次元位置を合わせるように分割領域を位置調整して連結することにより、3次元部位モデルデータを変換して3次元部位モデルを変形し、変形された3次元部位モデルを患者の生体に重なるように表示する。3次元部位モデルの詳細な変形が、さらに非剛体変形などにより行なわれてもよい。
[Second Embodiment]
Next, a medical support system according to the second embodiment of the present invention will be described. The medical support system according to the present embodiment extracts the first feature point of the three-dimensional blood vessel model included in the target region of the three-dimensional region model data generated from the CT image or the MRI image, Divide into regions containing feature points. Further, the second feature point of the three-dimensional blood vessel model included in the target region of the ultrasonic image data acquired by the ultrasonic probe is extracted. Then, the three-dimensional part model data is transformed and the three-dimensional part model is transformed by aligning and connecting the divided regions so that the three-dimensional position of the first feature point matches the three-dimensional position of the second feature point. Then, the deformed three-dimensional part model is displayed so as to overlap the patient's living body. The detailed deformation of the three-dimensional part model may be further performed by non-rigid deformation or the like.

また、患者の生体に重なるように表示するには、患者の生体に固定された光学マーカを撮像し、光学マーカの位置および向きに基づいた位置、形状および大きさの3次元部位モデルデータを生成する。光学マーカは、光学マーカ付きの磁気センサとして提供される。超音波プローブに固定された磁気センサおよび生体に固定された磁気センサから超音波プローブの正確な位置および向きを検出する。3次元部位モデルは、オプティカルシースルー型のヘッドマウンティンディスプレイ(以下、HMD:Head Mounted Display)に表示される。なお、本実施形態においては、光学マーカや磁気センサを患者の生体に固定した例を示したが、手術中に開腹している場合は、手術対象臓器に直接、光学マーカや磁気センサを固定して、より正確な位置を算出することもできる。   In addition, in order to display the image so as to overlap the patient's living body, the optical marker fixed to the patient's living body is imaged, and three-dimensional site model data having a position, shape and size based on the position and orientation of the optical marker is generated To do. The optical marker is provided as a magnetic sensor with an optical marker. An accurate position and orientation of the ultrasonic probe are detected from the magnetic sensor fixed to the ultrasonic probe and the magnetic sensor fixed to the living body. The three-dimensional part model is displayed on an optical see-through type head mounting display (hereinafter, HMD: Head Mounted Display). In this embodiment, the optical marker and the magnetic sensor are fixed to the patient's living body. However, when the abdomen is opened during the operation, the optical marker and the magnetic sensor are directly fixed to the organ to be operated. Thus, a more accurate position can be calculated.

《医療支援システム》
図2A、図2B、図2Cおよび図3を参照して、本実施形態の医療支援システムの構成および動作について説明する。
《Medical support system》
With reference to FIG. 2A, FIG. 2B, FIG. 2C, and FIG. 3, the structure and operation | movement of the medical assistance system of this embodiment are demonstrated.

(システム概要)
図2Aは、本実施形態に係る医療支援システム200の概要を示す図である。
(System overview)
FIG. 2A is a diagram showing an outline of the medical support system 200 according to the present embodiment.

医療支援システム200においては、コンピュータ断層撮影画像の1つであるCT画像210から生成した、例えば、STL(Standard Triangulated Language)形式の3次元モデルデータで表わされた3次元部位モデルや3次元部位モデルから抽出された3次元血管モデルなどから、モデルの特徴を表わす3次元座標上に配置された第1特徴点群240を抽出する。なお、第1特徴点群240は、3次元モデルデータにおいて生体組織の特徴ある位置を表わすものであれば限定されないが、例えば、血管の枝分かれ点における、枝分かれ数や枝分かれベクトル、あるいは全体のパターンが特有の点を第1特徴点としてよい。次に、第1特徴点群240から少なくとも1つ、望ましくは少なくとも3つの隣接した第1特徴点を含む領域への分割処理260を行なう。なお、第1特徴点が領域の分割面や分割点にあるのが、分割領域の連結が容易であり望ましい。   In the medical support system 200, for example, a three-dimensional part model or three-dimensional part represented by three-dimensional model data in an STL (Standard Triangulated Language) format generated from a CT image 210 that is one of computed tomography images. A first feature point group 240 arranged on the three-dimensional coordinates representing the features of the model is extracted from the three-dimensional blood vessel model extracted from the model. The first feature point group 240 is not limited as long as it represents a characteristic position of the biological tissue in the three-dimensional model data. For example, the number of branches, the branch vector, or the overall pattern at the branch point of the blood vessel. A unique point may be used as the first feature point. Next, a division process 260 into a region including at least one, preferably at least three adjacent first feature points from the first feature point group 240 is performed. Note that it is desirable that the first feature point is on the division plane or division point of the area because the division areas can be easily connected.

一方、診察室や手術室230において、位置検出用器具(例えば、磁気センサ)を用いて位置判定された超音波プローブ203により実時間に取得した時系列の2次元超音波画像群220から、あるいは、3次元超音波画像から3次元血管モデルを生成し、モデルの特徴を表わす3次元座標上に配置された第2特徴点群250を抽出する。なお、第2特徴点群250も、3次元超音波画像データにおいて生体組織の特徴ある位置を表わすものであれば限定されないが、第1特徴点と同様の、血管の枝分かれ点における、枝分かれ数や枝分かれベクトル、あるいは全体のパターンが特有の点を第2特徴点とするのが望ましい。ここで、超音波プローブ203の位置検出用器具は、診察や手術中に医師などにより遮断される光学マーカよりも、遮断されることのない磁気センサが望ましい。   On the other hand, in the examination room or the operating room 230, from the time-series two-dimensional ultrasonic image group 220 acquired in real time by the ultrasonic probe 203 whose position is determined using a position detection instrument (for example, a magnetic sensor), or A three-dimensional blood vessel model is generated from the three-dimensional ultrasonic image, and a second feature point group 250 arranged on the three-dimensional coordinates representing the model features is extracted. The second feature point group 250 is not limited as long as it represents a characteristic position of the living tissue in the three-dimensional ultrasound image data, but the number of branches at the branch point of the blood vessel, similar to the first feature point, It is desirable that a branching vector or a point unique to the entire pattern be the second feature point. Here, the position detection instrument of the ultrasonic probe 203 is preferably a magnetic sensor that is not blocked, rather than an optical marker that is blocked by a doctor or the like during examination or surgery.

そして、医療支援システム200においては、第1特徴点と第2特徴点との3次元マッチングが行なわれ、第1特徴点群240が第2特徴点群250に重なるように、分割領域が位置調整されて連結されることによって、3次元モデルデータの変形が行なわれる。なお、3次元モデルデータの変形は、さらに分割領域や連結後の3次元部位モデルの非剛性変形を含んでもよい。   In the medical support system 200, the first feature point and the second feature point are three-dimensionally matched, and the position of the divided region is adjusted so that the first feature point group 240 overlaps the second feature point group 250. As a result, the three-dimensional model data is transformed. Note that the deformation of the three-dimensional model data may further include non-rigid deformation of the divided regions and the connected three-dimensional part model.

次に、医療支援システム200においては、実時間に生体201上に固定した位置検出用器具を用いて計測された、生体と3次元画像データに基づく3次元部位モデルとの位置関係に基づき、実時間の超音波画像に対応して変形された3次元部位モデル270を生体内部にあるように調整して3次元表示する。なお、3次元部位モデル270の3次元表示をする表示部は、オプティカルシースルー型HMDが望ましく、医師はHMDの表示画面上の3次元部位モデルの先に実際の生体を目視する。ここで、生体上の位置検出用器具は、生体と3次元部位モデルの表示との位置関係を高い精度で得るための光学マーカ付きの磁気センサが望ましい。   Next, in the medical support system 200, based on the positional relationship between the living body and the three-dimensional part model based on the three-dimensional image data, which is measured using a position detecting instrument fixed on the living body 201 in real time, The three-dimensional part model 270 deformed corresponding to the ultrasonic image of time is adjusted so as to be inside the living body and displayed in three dimensions. An optical see-through type HMD is desirable for the display unit for performing the three-dimensional display of the three-dimensional part model 270, and the doctor visually observes the actual living body ahead of the three-dimensional part model on the display screen of the HMD. Here, the position detecting instrument on the living body is preferably a magnetic sensor with an optical marker for obtaining the positional relationship between the living body and the display of the three-dimensional site model with high accuracy.

図2Bは、本実施形態に係る第1特徴点群240および第2特徴点群250の抽出処理の概要を示す図である。なお、図2Bにおいては第1特徴点群240の抽出を代表して説明するが、第2特徴点群250の抽出も同様である。   FIG. 2B is a diagram showing an outline of extraction processing of the first feature point group 240 and the second feature point group 250 according to the present embodiment. In FIG. 2B, the extraction of the first feature point group 240 will be described as a representative, but the extraction of the second feature point group 250 is the same.

取得した3次元血管画像241に対して、まず、各血管画像の中心線(芯線)242を抽出する。次に、複数の芯線242の分岐点や変曲点などの特徴点243を抽出して、分割処理260に使用する。   First, a center line (core line) 242 of each blood vessel image is extracted from the acquired three-dimensional blood vessel image 241. Next, feature points 243 such as branch points and inflection points of the plurality of core wires 242 are extracted and used for the dividing process 260.

(システム構成)
図2Cは、本実施形態に係る医療支援システム200の構成を示すブロック図である。
(System configuration)
FIG. 2C is a block diagram illustrating a configuration of the medical support system 200 according to the present embodiment.

医療支援システム200は、CT装置211と、3次元モデル生成装置212と、画像処理装置280と、診察室や手術室230に配置された診察/手術器具群と、を備える。   The medical support system 200 includes a CT apparatus 211, a three-dimensional model generation apparatus 212, an image processing apparatus 280, and a diagnosis / surgical instrument group disposed in an examination room or an operating room 230.

CT装置211は、患者201のコンピュータ断層撮影画像をあらかじめ取得する。なお、取得された目的の臓器に対して生成した3次元CT画像は、STL形式などの3次元データに変換するのが望ましい。3次元データの範囲に限定はないが、患者201の注目器官単位であることが望ましい。3次元モデル生成装置212は、CT装置211からのコンピュータ断層撮影画像群から、例えば3次元血管モデルを含む3次元部位モデルを生成して、画像処理装置280に渡す。なお、図2Cの画像処理装置280では、CT装置211によるコンピュータ断層撮影画像群に基づく3次元部位モデルの取得としたが、MRI装置であっても他のコンピュータ断層撮影装置に基づく3次元部位モデルであってもよい。また、3次元部位モデルのデータは、患者201の生体内部の生体組織の構成あるいは器官や患部の構成を表わすものであれば、STL形式に限定されない。なお、本実施形態においては、画像処理装置280が、外部の3次元モデル生成装置212で生成された3次元部位モデルのデータを取得する場合を示すが、画像処理装置280が3次元モデル生成装置212の機能を含む構成であってもよい。   The CT apparatus 211 acquires a computer tomography image of the patient 201 in advance. Note that it is desirable to convert the acquired three-dimensional CT image generated for the target organ into three-dimensional data such as the STL format. Although there is no limitation on the range of the three-dimensional data, it is desirable that the unit is a target organ unit of the patient 201. The three-dimensional model generation apparatus 212 generates a three-dimensional part model including, for example, a three-dimensional blood vessel model from the computer tomography image group from the CT apparatus 211 and passes it to the image processing apparatus 280. In the image processing apparatus 280 in FIG. 2C, the CT apparatus 211 acquires a three-dimensional part model based on the computer tomography image group. However, even with an MRI apparatus, the three-dimensional part model is based on another computer tomography apparatus. It may be. The data of the three-dimensional site model is not limited to the STL format as long as it represents the configuration of the living tissue inside the living body of the patient 201 or the configuration of the organ or affected part. In this embodiment, the image processing apparatus 280 acquires the data of the three-dimensional part model generated by the external three-dimensional model generation apparatus 212. However, the image processing apparatus 280 is the three-dimensional model generation apparatus. A configuration including 212 functions may be adopted.

一方、診察室や手術室230の診察/手術器具群としては、超音波プローブ203と、磁気センサ231と、光学マーカ付き磁気センサ293と、Webカメラ294と、HMD295と、を有する。なお、Webカメラ294とHMD295とは、オプティカルシースルー型HMDとして一体化されている。超音波プローブ203は、実時間の診察中あるいは手術中に、患者201から超音波画像を取得する。磁気センサ231は、超音波プローブ203上に配置されて、超音波プローブ203の位置を検出する。光学マーカ付き磁気センサ293は、患者201に配置されて、磁気センサにより光学マーカの位置を検出し、光学マーカは患者201の生体とWebカメラ294との位置関係を判定するために使用される。Webカメラ294は、光学マーカ付き磁気センサ293の光学マーカを撮像して、患者201の生体とWebカメラ294との位置関係を判定する。なお、患者201の生体とWebカメラ294との位置関係を測定するためにHMDに磁気センサを取り付けてもよい。HMD295は、超音波画像に合致するように変形された3次元データで表わされる3次元モデルを、医師202が目視する患者201の位置に表示する。   On the other hand, the examination / surgical instrument group in the examination room or the operating room 230 includes an ultrasonic probe 203, a magnetic sensor 231, a magnetic sensor 293 with an optical marker, a Web camera 294, and an HMD 295. Note that the Web camera 294 and the HMD 295 are integrated as an optical see-through HMD. The ultrasonic probe 203 acquires an ultrasonic image from the patient 201 during real-time examination or surgery. The magnetic sensor 231 is disposed on the ultrasonic probe 203 and detects the position of the ultrasonic probe 203. The magnetic sensor 293 with an optical marker is disposed on the patient 201, detects the position of the optical marker by the magnetic sensor, and the optical marker is used to determine the positional relationship between the living body of the patient 201 and the web camera 294. The web camera 294 images the optical marker of the magnetic sensor 293 with an optical marker, and determines the positional relationship between the living body of the patient 201 and the web camera 294. A magnetic sensor may be attached to the HMD in order to measure the positional relationship between the living body of the patient 201 and the Web camera 294. The HMD 295 displays a three-dimensional model represented by three-dimensional data deformed so as to match the ultrasonic image at the position of the patient 201 viewed by the doctor 202.

画像処理装置280は、3次元データで表わされる3次元部位モデルを、磁気センサ231の検出信号によって位置および向きを判定した超音波プローブ203が取得した超音波画像に合致するように変形する。かかる変形には、3次元部位モデルを血管の分岐点などの特徴点に基づき領域に分割する分割処理と、超音波画像の特徴点に合致するように分割領域を連結する連結処理とが含まれる。次に、画像処理装置280は、光学マーカ付き磁気センサ293の磁気センサの検出信号と光学マーカを撮像したWebカメラ294の画像データによって、患者201の位置および向きと、患者201とHMD295との位置関係とを算出する。なお、Webカメラ294とHMD295との位置関係は一体のHMDとして固定されている。そして、画像処理装置280は、変形した3次元部位モデルが患者201の生体内部の正確な位置にあるように3次元表示データを生成して、HMD295に3次元表示させる。このように生体にセンサを固定するメリットは、生体が動いた時でも正確に3次元位置を推定することができることである。   The image processing device 280 transforms the three-dimensional part model represented by the three-dimensional data so as to match the ultrasonic image acquired by the ultrasonic probe 203 whose position and orientation are determined by the detection signal of the magnetic sensor 231. Such deformation includes a dividing process for dividing the three-dimensional region model into regions based on feature points such as blood vessel branch points, and a connecting process for connecting the divided regions so as to match the feature points of the ultrasonic image. . Next, the image processing apparatus 280 determines the position and orientation of the patient 201 and the position of the patient 201 and the HMD 295 based on the detection signal of the magnetic sensor 293 with the optical marker and the image data of the Web camera 294 that has captured the optical marker. Calculate the relationship. Note that the positional relationship between the Web camera 294 and the HMD 295 is fixed as an integrated HMD. Then, the image processing device 280 generates three-dimensional display data so that the deformed three-dimensional part model is at an accurate position inside the living body of the patient 201 and causes the HMD 295 to display the three-dimensional display data. The merit of fixing the sensor to the living body in this way is that the three-dimensional position can be accurately estimated even when the living body moves.

(動作手順)
図3は、本実施形態に係る医療支援システム200の動作手順を示すシーケンス図である。
(Operation procedure)
FIG. 3 is a sequence diagram showing an operation procedure of the medical support system 200 according to the present embodiment.

CT装置211は、ステップS301において、患者201のコンピュータ断層撮影画像群を取得する。3次元モデル生成装置212は、ステップS302において、コンピュータ断層撮影画像群から肝臓などの部位あるいはその血管を抜き出して3次元表示する、3次元部位モデルデータを生成して、画像処理装置280に送信する。画像処理装置280は、ステップS303において、3次元モデル生成装置212から3次元部位モデルデータを受信する。画像処理装置280は、ステップS305において、3次元血管モデルのような3次元部位モデルに基づいて第1特徴点群を抽出する。そして、画像処理装置280は、ステップS307において、3次元部位モデルを、少なくとも1つの第1特徴点を含む3次元領域に分割して保持する。   In step S301, the CT apparatus 211 acquires a computer tomography image group of the patient 201. In step S <b> 302, the three-dimensional model generation apparatus 212 extracts a part such as the liver or its blood vessel from the computer tomography image group, generates three-dimensional part model data for three-dimensional display, and transmits the three-dimensional part model data to the image processing apparatus 280. . In step S303, the image processing device 280 receives the three-dimensional part model data from the three-dimensional model generation device 212. In step S305, the image processing apparatus 280 extracts a first feature point group based on a three-dimensional part model such as a three-dimensional blood vessel model. In step S307, the image processing device 280 divides and holds the three-dimensional part model into three-dimensional regions including at least one first feature point.

ステップS309において、磁気センサ231は超音波プローブ203の位置および向きを取得して画像処理装置280に送信し、超音波プローブ203はその時の超音波信号を取得して画像処理装置280に送信する。画像処理装置280は、ステップS311において、複数の継時的な位置情報と超音波信号とに基づいて超音波の2次元データを蓄積した後に、例えば血管モデルを示す3次元超音波モデルデータを生成する。次に、画像処理装置280は、ステップS313において、血管モデルを示す3次元超音波モデルデータに基づいて第2特徴点群を抽出する。   In step S <b> 309, the magnetic sensor 231 acquires the position and orientation of the ultrasonic probe 203 and transmits it to the image processing device 280, and the ultrasonic probe 203 acquires the ultrasonic signal at that time and transmits it to the image processing device 280. In step S <b> 311, the image processing apparatus 280 accumulates ultrasonic two-dimensional data based on a plurality of successive position information and ultrasonic signals, and then generates, for example, three-dimensional ultrasonic model data indicating a blood vessel model. To do. Next, in step S313, the image processing device 280 extracts a second feature point group based on the three-dimensional ultrasonic model data indicating the blood vessel model.

さらに、画像処理装置280は、ステップS315において、第1特徴点群が第2特徴点群に合致するように、3次元部位モデルから生成した分割領域を位置変換する。そして、画像処理装置280は、位置変換した分割領域を連結する。なお、分割領域の連結を正確にするためには、第1特徴点を分割領域の面や稜線あるいは頂点などに含むのが望ましい。   Further, in step S315, the image processing apparatus 280 converts the position of the divided region generated from the three-dimensional part model so that the first feature point group matches the second feature point group. Then, the image processing apparatus 280 connects the divided areas whose positions have been converted. In order to accurately connect the divided regions, it is desirable to include the first feature point on the surface, ridgeline, or vertex of the divided region.

光学マーカ付きの磁気センサ293の磁気センサは、ステップS317において、配置した患者201の生体の位置および向きを取得して、画像処理装置280に送信する。また、Webカメラ294は、ステップS319において、光学マーカ付きの磁気センサ293の光学マーカを撮像して、光学マーカの撮像データを画像処理装置280に送信する。画像処理装置280は、ステップS321において、光学マーカの撮像データから生体と表示部であるHMD295との位置関係(距離と向き)を算出する。   In step S317, the magnetic sensor of the magnetic sensor 293 with the optical marker acquires the position and orientation of the living body of the placed patient 201 and transmits the acquired position and orientation to the image processing apparatus 280. In step S319, the Web camera 294 images the optical marker of the magnetic sensor 293 with the optical marker, and transmits the imaging data of the optical marker to the image processing device 280. In step S321, the image processing apparatus 280 calculates the positional relationship (distance and orientation) between the living body and the HMD 295 that is the display unit from the imaging data of the optical marker.

なお、光学マーカ付きの磁気センサ293と超音波プローブ203の磁気センサ231とにより、超音波プローブ203の位置をより正確に検出することができる。すなわち、超音波プローブ203に光学マーカを配置することにより正確な位置を検出できるが、光学マーカがカメラの視界から隠れないことが条件となる。本実施形態においては、超音波プローブ203に磁気センサ231を配置して、超音波プローブ203を自由に移動することを可能にした。しかしながら、光学マーカに比較して正確性が低下するので、光学マーカ付きの磁気センサ293を生体201に配置することで、正確さを確保する。したがって、HMD295に磁気センサを取り付けた場合はHMD295と超音波プローブ203との位置関係が検出できるので、カメラによる撮像の必要はない。   The position of the ultrasonic probe 203 can be detected more accurately by the magnetic sensor 293 with an optical marker and the magnetic sensor 231 of the ultrasonic probe 203. In other words, an accurate position can be detected by placing an optical marker on the ultrasonic probe 203, but it is a condition that the optical marker is not hidden from the view of the camera. In the present embodiment, the magnetic sensor 231 is arranged on the ultrasonic probe 203 so that the ultrasonic probe 203 can be freely moved. However, since accuracy is lowered as compared with the optical marker, the accuracy is ensured by arranging the magnetic sensor 293 with the optical marker in the living body 201. Therefore, when a magnetic sensor is attached to the HMD 295, the positional relationship between the HMD 295 and the ultrasonic probe 203 can be detected, so that there is no need for imaging with a camera.

そして、画像処理装置280は、ステップS323において、分割領域の連結により変形した3次元部位モデルを、患者201の生体内部にあるかのように表示する表示データを生成して、HMD295に送信する。HMD295は、ステップS325において、受信した表示データにより3次元部位モデルを患者201の生体内部にあるかのように表示する。   In step S323, the image processing apparatus 280 generates display data for displaying the three-dimensional part model deformed by the connection of the divided areas as if it is inside the living body of the patient 201, and transmits the display data to the HMD 295. In step S325, the HMD 295 displays the three-dimensional site model as if inside the living body of the patient 201 based on the received display data.

《画像処理装置の機能構成》
図4は、本実施形態に係る画像処理装置280の機能構成を示すブロック図である。
<< Functional configuration of image processing apparatus >>
FIG. 4 is a block diagram illustrating a functional configuration of the image processing apparatus 280 according to the present embodiment.

画像処理装置280は、3次元部位モデル受信部411と、第1特徴点抽出部412と、分割領域生成部424と、を備える。また、画像処理装置280は、通信制御部413と、磁気信号受信部414と、超音波プローブ位置検出部415と、超音波信号受信部416と、超音波モデルデータ生成部417と、第2特徴点抽出部418と、を備える。さらに、画像処理装置280は、磁気信号受信部419と、患者位置検出部420と、光学マーカ画像受信部421と、HMD位置算出部422と、表示画像生成部423と、表示画像送信部425と、を備える。表示画像生成部423は、分割領域マッチング部431と、分割領域連結部432と、HMD画像生成部433と、を含む。   The image processing device 280 includes a three-dimensional part model reception unit 411, a first feature point extraction unit 412 and a divided region generation unit 424. The image processing apparatus 280 includes a communication control unit 413, a magnetic signal receiving unit 414, an ultrasonic probe position detecting unit 415, an ultrasonic signal receiving unit 416, an ultrasonic model data generating unit 417, and a second feature. A point extraction unit 418. Further, the image processing device 280 includes a magnetic signal receiving unit 419, a patient position detecting unit 420, an optical marker image receiving unit 421, an HMD position calculating unit 422, a display image generating unit 423, and a display image transmitting unit 425. . The display image generation unit 423 includes a divided region matching unit 431, a divided region connection unit 432, and an HMD image generation unit 433.

3次元部位モデル受信部411は、外部の3次元モデル生成装置212においてコンピュータ断層撮影画像群から生成した血管モデルなどの3次元部位モデルを受信する。3次元部位モデルの受信は、記憶媒体を介してもよいし、通信制御部413を介してもよい。なお、断層画像からのSTLデータなどの3次元データの生成を画像処理装置280で実行する場合は、画像処理装置280はSTLデータ生成部を有する。第1特徴点抽出部412は、血管モデルなどの3次元部位モデルから第1特徴点を抽出する。分割領域生成部424は、STLデータなどで表わされた3次元部位モデルを、近接する第1特徴点を含む3次元の小領域に分割する。なお、各分割領域には少なくとも1つの第1特徴点が含まれる。分割領域の超音波画像の第2特徴点とのマッチングによる位置変換のためには、各分割領域には少なくとも3つの第1特徴点が含まれるのが望ましい。さらに、分割領域の連結を容易にするために、第1特徴点が各分割領域の面、稜線、頂点にあるよう分割するのが望ましい。   The three-dimensional part model reception unit 411 receives a three-dimensional part model such as a blood vessel model generated from a computer tomography image group in the external three-dimensional model generation device 212. The reception of the three-dimensional part model may be performed via a storage medium or the communication control unit 413. Note that when the image processing apparatus 280 generates three-dimensional data such as STL data from a tomographic image, the image processing apparatus 280 includes an STL data generation unit. The first feature point extraction unit 412 extracts a first feature point from a three-dimensional part model such as a blood vessel model. The divided region generation unit 424 divides the three-dimensional part model represented by STL data or the like into three-dimensional small regions including the first feature points that are close to each other. Each divided area includes at least one first feature point. In order to perform position conversion by matching with the second feature point of the ultrasonic image of the divided area, it is desirable that each divided area includes at least three first feature points. Furthermore, in order to facilitate the connection of the divided areas, it is desirable to divide the first feature points so that they are on the surface, ridge line, and vertex of each divided area.

通信制御部413は、診察/手術器具群290に含まれる各器具との情報交換を行なう。なお、診察室や手術室230の診察/手術器具群との通信は有線であっても無線であってもよいが、無線通信であるのが望ましい。磁気信号受信部414は、通信制御部413を介して、超音波プローブ203に配置した磁気センサ231からの磁気検出信号を受信する。超音波プローブ位置検出部415は、磁気センサ231からの磁気検出信号に基づいて、超音波プローブ203の位置および向きを検出する。詳細には、磁気検出信号に基づく磁気センサ231による位置および向きの検出は、磁場発生装置(不図示)と、コントローラ部(不図示)と、磁気センサ231と、を含む位置検出システムにおいて、コントローラ部で向きと座標を算出して送信する構成となっている。なお、磁気センサ231が磁気検出信号から位置および向きを検出するための記憶部を有する場合は、磁気センサ231から位置および向きを示すデータ(例えば、座標とベクトル)を受信してもよい。超音波信号受信部416は、通信制御部413を介して、超音波プローブ203から超音波信号を受信する。なお、超音波信号受信部416は、超音波プローブ203が超音波信号から超音波画像データを生成する機能を有する場合には、超音波画像データを受信してもよい。   The communication control unit 413 exchanges information with each instrument included in the diagnosis / surgical instrument group 290. The communication with the examination / surgical instrument group in the examination room or the operating room 230 may be wired or wireless, but is preferably wireless communication. The magnetic signal receiving unit 414 receives a magnetic detection signal from the magnetic sensor 231 disposed in the ultrasonic probe 203 via the communication control unit 413. The ultrasonic probe position detection unit 415 detects the position and orientation of the ultrasonic probe 203 based on the magnetic detection signal from the magnetic sensor 231. Specifically, detection of the position and orientation by the magnetic sensor 231 based on the magnetic detection signal is performed by a controller in a position detection system including a magnetic field generator (not shown), a controller unit (not shown), and the magnetic sensor 231. The direction and coordinates are calculated and transmitted by the unit. In the case where the magnetic sensor 231 has a storage unit for detecting the position and orientation from the magnetic detection signal, data (for example, coordinates and vectors) indicating the position and orientation may be received from the magnetic sensor 231. The ultrasonic signal receiving unit 416 receives an ultrasonic signal from the ultrasonic probe 203 via the communication control unit 413. The ultrasonic signal receiving unit 416 may receive ultrasonic image data when the ultrasonic probe 203 has a function of generating ultrasonic image data from the ultrasonic signal.

超音波モデルデータ生成部417は、超音波信号受信部416が受信した超音波信号を、超音波プローブ位置検出部415が検出した超音波プローブ203の位置および向きに対応して、3次元座標の超音波モデルデータを生成する。なお、超音波モデルデータ生成部417は、超音波プローブ203が取得した各断面画像を3次元に接続して3次元超音波モデルデータを生成する。本実施形態では、超音波プローブ203が取得した各断面画像から血管などの構造物を抽出して、それらを3次元に接続して3次元超音波モデルデータを生成する。第2特徴点抽出部418は、超音波モデルデータ生成部417が生成した血管モデルなどの3次元超音波モデルデータから、例えば血管の枝分かれなどの第2特徴点を抽出する。   The ultrasonic model data generation unit 417 corresponds to the ultrasonic signal received by the ultrasonic signal reception unit 416 in accordance with the position and orientation of the ultrasonic probe 203 detected by the ultrasonic probe position detection unit 415. Generate ultrasonic model data. The ultrasonic model data generation unit 417 generates three-dimensional ultrasonic model data by connecting each cross-sectional image acquired by the ultrasonic probe 203 in three dimensions. In the present embodiment, a structure such as a blood vessel is extracted from each cross-sectional image acquired by the ultrasonic probe 203 and connected in three dimensions to generate three-dimensional ultrasonic model data. The second feature point extraction unit 418 extracts second feature points such as blood vessel branching from the three-dimensional ultrasound model data such as the blood vessel model generated by the ultrasound model data generation unit 417.

磁気信号受信部419は、通信制御部413を介して、光学マーカ付き磁気センサ293から磁気検出信号を受信する。なお、光学マーカ付き磁気センサ293が磁気検出信号から位置および向きを検出するための記憶部を有する場合は、位置および向きを示すデータ(例えば、座標とベクトル)を受信してもよい。患者位置検出部420は、光学マーカ付き磁気センサ293からの磁気検出信号に基づいて、患者201の位置および向きを検出する。詳細には、磁気検出信号に基づく光学マーカ付き磁気センサ293による位置および向きの検出は、磁場発生装置(不図示)と、コントローラ部(不図示)と、磁気センサ293と、を含む位置検出システムにおいて、コントローラ部で向きと座標を算出して送信する構成となっている。   The magnetic signal receiving unit 419 receives a magnetic detection signal from the magnetic sensor with optical marker 293 via the communication control unit 413. In addition, when the magnetic sensor 293 with an optical marker has a storage unit for detecting the position and orientation from the magnetic detection signal, data (for example, coordinates and vectors) indicating the position and orientation may be received. The patient position detection unit 420 detects the position and orientation of the patient 201 based on the magnetic detection signal from the magnetic sensor 293 with an optical marker. Specifically, the position and orientation detection by the magnetic sensor 293 with an optical marker based on the magnetic detection signal is a position detection system including a magnetic field generator (not shown), a controller unit (not shown), and a magnetic sensor 293. In the configuration, the controller unit calculates and transmits the direction and coordinates.

光学マーカ画像受信部421は、通信制御部413を介して、HMD295に設置されたWebカメラ294が撮像した光学マーカ付き磁気センサ293の光学マーカの撮影画像を受信する。HMD位置算出部422は、光学マーカ画像受信部421が受信した光学マーカの撮影画像に基づいて、HMD295と患者201との位置関係を算出する。なお、前述のように、HMD295に位置判定用の磁気センサを配置すれば、光学マーカの撮影画像に基づくHMD295と患者201との位置関係の算出はなくてもよい。   The optical marker image reception unit 421 receives a captured image of the optical marker of the magnetic sensor with optical marker 293 captured by the Web camera 294 installed in the HMD 295 via the communication control unit 413. The HMD position calculation unit 422 calculates the positional relationship between the HMD 295 and the patient 201 based on the captured image of the optical marker received by the optical marker image reception unit 421. As described above, if a magnetic sensor for position determination is arranged on the HMD 295, the positional relationship between the HMD 295 and the patient 201 may not be calculated based on the captured image of the optical marker.

表示画像生成部423の分割領域マッチング部431は、分割領域生成部424が生成した各分割領域に含まれる第1特徴点と第2特徴点抽出部418が抽出した第2特徴点とをマッチングして、互いの特徴点が合致するように各分割領域を移動および回転する。そして、分割領域連結部432は、各分割領域を第1特徴点により連結して、3次元超音波画像に合致するように変形された、STLデータなどで表わされた3次元部位モデルを生成する。次に、HDM画像生成部433は、患者位置検出部420が検出した患者201の位置に変形した3次元部位モデルが重なるように、HMD位置算出部422で算出したHMD位置に3次元表示するための画像データを生成する。すなわち、計測されたHMD295の位置から観察した時に、患者201の生体に重なる3次元部位モデルがどのように見えるかを計算した3次元画像を生成する。表示画像送信部425は、HMD画像生成部433が生成した患者201の位置に重なる画像データを、通信制御部413を介して、HMD295に表示すべく送信する。   The divided region matching unit 431 of the display image generation unit 423 matches the first feature point included in each divided region generated by the divided region generation unit 424 with the second feature point extracted by the second feature point extraction unit 418. Then, each divided area is moved and rotated so that the feature points of each other match. Then, the divided region connecting unit 432 connects the divided regions with the first feature points, and generates a three-dimensional part model represented by STL data and the like that is transformed to match the three-dimensional ultrasonic image. To do. Next, the HDM image generation unit 433 performs three-dimensional display at the HMD position calculated by the HMD position calculation unit 422 so that the deformed three-dimensional part model overlaps the position of the patient 201 detected by the patient position detection unit 420. Image data is generated. That is, a three-dimensional image is generated that calculates how the three-dimensional part model that overlaps the living body of the patient 201 looks when observed from the measured position of the HMD 295. The display image transmission unit 425 transmits the image data overlapping the position of the patient 201 generated by the HMD image generation unit 433 to be displayed on the HMD 295 via the communication control unit 413.

(分割領域テーブル)
図5は、本実施形態に係る分割領域テーブル500の構成を示す図である。分割領域テーブル500は、コンピュータ断層撮影画像の1つであるCT画像から3次元形式の血管モデルなどの部位モデルデータから抽出した第1特徴点と、第1特徴点を含む分割領域とを保持するテーブルである。なお、分割領域テーブル500の構成は、図5に限定されない。また、図5においては、血管の枝分かれ場所を第1特徴点とする例を示すが、これに限定されず固有の特徴を表わす場所であればよい。
(Division area table)
FIG. 5 is a diagram showing a configuration of the divided region table 500 according to the present embodiment. The divided region table 500 holds a first feature point extracted from a part model data such as a three-dimensional blood vessel model from a CT image, which is one of computed tomography images, and a divided region including the first feature point. It is a table. Note that the configuration of the divided region table 500 is not limited to FIG. FIG. 5 shows an example in which the branching location of the blood vessel is the first feature point. However, the present invention is not limited to this, and any location that represents a unique feature may be used.

分割領域テーブル500は、複数断層のCTデータから生成され、受信したSTL形式などの3次元部位モデルデータ501と、3次元部位モデルデータ501に含まれる3次元血管モデルデータ502と、血管の芯線を抽出した血管芯線503と、を記憶する。なお、本例では、抽象化して普遍的な特徴を考慮するため、血管芯線503に基づき特徴点を抽出するが、特徴点が有する特徴がマッチング可能な程度に不変であれば、血管の太さの比率などを考慮してもよい。なお、受信した3次元部位モデルデータ501が、血管のみを抜き出したSTLファイルであってもよい。   The divided region table 500 is generated from CT data of a plurality of slices, and the received three-dimensional region model data 501 such as the STL format, the three-dimensional blood vessel model data 502 included in the three-dimensional region model data 501, and the blood vessel core line are displayed. The extracted blood vessel core line 503 is stored. In this example, in order to abstract and consider universal features, feature points are extracted based on the blood vessel core line 503. If the features of the feature points are invariable so that they can be matched, the thickness of the blood vessel is extracted. The ratio may be taken into consideration. The received three-dimensional site model data 501 may be an STL file in which only blood vessels are extracted.

分割領域テーブル500は、本例の第1特徴点データ504として、血管芯線503のパターンから、枝分かれ点を特徴点として、枝分かれIDと、枝分かれ特徴データと、特徴点の3次元位置データと、を記憶する。枝分かれ特徴データとしては、枝分かれ数511、各枝分かれの始点と方向を示す枝分かれベクトル512、全体の枝分かれをパターン化した枝分かれパターン513、その他の例えば血流方向など514、の少なくともいずれかを記憶する。枝分かれ特徴データは、特徴ID515としてあらかじめ類別されていてもよい。第1特徴点データ504は、図5に限定されない。マッチングにおける信頼性を高めるデータを加え、信頼性を低めるデータを除くことができる。   The divided region table 500 includes, as the first feature point data 504 of this example, branching IDs, branching feature data, and three-dimensional position data of feature points from the pattern of the blood vessel core line 503 as branch points. Remember. As the branching feature data, at least one of a branching number 511, a branching vector 512 indicating the start point and direction of each branch, a branching pattern 513 obtained by patterning the entire branching, and other 514 such as a blood flow direction is stored. The branching feature data may be classified in advance as the feature ID 515. The first feature point data 504 is not limited to FIG. Data that increases reliability in matching can be added, and data that decreases reliability can be excluded.

分割領域テーブル500は、第1特徴点を含む分割領域を識別する分割領域ID505と、分割領域データ506と、を記憶する。ここで、分割領域データ506としては、第1特徴点以外の血管データや、分割領域の形状データ、重心データなどが含まれる。なお、図5においては、分割領域が、3つの第1特徴点、あるいは、4つの第1特徴点、を含む場合を例に図示しているが、分割領域が含む第1特徴点の数には限定はない。また、隣接する分割領域は、面や稜線、頂点に共通の第1特徴点を有するように生成することで、連結処理が容易となる。   The divided area table 500 stores a divided area ID 505 that identifies a divided area including the first feature point, and divided area data 506. Here, the divided region data 506 includes blood vessel data other than the first feature point, shape data of the divided region, centroid data, and the like. In FIG. 5, the divided region includes three first feature points or four first feature points as an example, but the number of first feature points included in the divided region is illustrated. There is no limitation. In addition, the adjacent divided regions are generated so as to have the first feature point common to the surface, the ridgeline, and the vertex, thereby facilitating the connection process.

(超音波画像テーブル)
図6Aは、本実施形態に係る超音波画像テーブル610の構成を示す図である。超音波画像テーブル610は、超音波プローブ291から受信した超音波信号から超音波プローブ291の位置および向きを考慮した3次元の超音波モデルデータを生成するために使用される。
(Ultrasonic image table)
FIG. 6A is a diagram showing a configuration of the ultrasonic image table 610 according to the present embodiment. The ultrasonic image table 610 is used to generate three-dimensional ultrasonic model data considering the position and orientation of the ultrasonic probe 291 from the ultrasonic signal received from the ultrasonic probe 291.

超音波画像テーブル610は、超音波画像データID611、患者IDと患部とを含む患者情報612、取得日時(タイムスタンプ)613、に対応つけて、超音波プローブ203の形式に対応した取得パラメータ614と、取得パラメータ614により処理された受信した超音波画像データ615と、を記憶する。   The ultrasound image table 610 is associated with the ultrasound image data ID 611, patient information 612 including the patient ID and the affected area, and the acquisition date (time stamp) 613, and acquisition parameters 614 corresponding to the format of the ultrasound probe 203. The received ultrasonic image data 615 processed by the acquisition parameter 614 is stored.

また、超音波画像テーブル610は、磁気センサ231および磁気センサ293からの磁気センサ相対信号616と、磁気センサ相対信号616から検出した超音波プローブ203の位置および向きを示す超音波プローブの3次元位置データ617と、を記憶する。ここで、磁気センサ231および磁気センサ293からの磁気センサ相対信号616により超音波プローブ203の位置および向きを検出するのは、磁気センサ231による超音波プローブ203の位置情報だけでは、生体が動いた時に3次元位置がずれるためである。そのため、超音波プローブ203の位置および向きは、生体につけた磁気センサ293からの相対的な位置と方向として記録する。   The ultrasonic image table 610 includes a magnetic sensor relative signal 616 from the magnetic sensor 231 and the magnetic sensor 293, and a three-dimensional position of the ultrasonic probe indicating the position and orientation of the ultrasonic probe 203 detected from the magnetic sensor relative signal 616. Data 617 is stored. Here, the position and orientation of the ultrasonic probe 203 is detected based on the magnetic sensor relative signal 616 from the magnetic sensor 231 and the magnetic sensor 293 because the living body moves only by the position information of the ultrasonic probe 203 by the magnetic sensor 231. This is because the three-dimensional position sometimes shifts. Therefore, the position and orientation of the ultrasonic probe 203 are recorded as a relative position and direction from the magnetic sensor 293 attached to the living body.

そして、超音波画像テーブル610は、超音波プローブ203の位置および向きに対応して受信した超音波画像データ615を3次元座標変換した、3次元の超音波画像データ618を記憶する。さらに、各スキャンに対応する3次元の超音波画像データ618を接続した患者の器官単位あるいは患部単位の3次元超音波モデルデータ619を生成して記憶する。   The ultrasonic image table 610 stores three-dimensional ultrasonic image data 618 obtained by performing three-dimensional coordinate conversion on the received ultrasonic image data 615 corresponding to the position and orientation of the ultrasonic probe 203. Furthermore, 3D ultrasound model data 619 of the patient's organ unit or diseased part unit connected to the 3D ultrasound image data 618 corresponding to each scan is generated and stored.

(第2特徴点テーブル)
図6Bは、本実施形態に係る第2特徴点テーブル620の構成を示す図である。第2特徴点テーブル620は、超音波画像データ618から抽出した特徴点を保持するテーブルである。なお、第2特徴点テーブル620の構成は、図6Bに限定されない。また、図6Bにおいては、血管の枝分かれ場所を特徴点とする例を示すが、これに限定されず固有の特徴を表わす場所であればよいが、第1特徴点と共通の特徴であるのが望ましい。
(Second feature point table)
FIG. 6B is a diagram showing a configuration of the second feature point table 620 according to the present embodiment. The second feature point table 620 is a table that holds feature points extracted from the ultrasound image data 618. The configuration of the second feature point table 620 is not limited to FIG. 6B. 6B shows an example in which the branching location of the blood vessel is a feature point. However, the feature point is not limited to this, and any location that represents a unique feature may be used. However, the feature is common to the first feature point. desirable.

第2特徴点テーブル620は、超音波画像テーブル610の超音波画像データID611および超音波画像データ618に対応付けて、血管部位抽出画像データ621を記憶する。なお、血管部位抽出は、超音波画像データ618の2値化および輪郭抽出、そして環状輪郭の選別などにより行なわれる。   The second feature point table 620 stores the blood vessel part extracted image data 621 in association with the ultrasound image data ID 611 and the ultrasound image data 618 of the ultrasound image table 610. The blood vessel part extraction is performed by binarization and contour extraction of the ultrasonic image data 618 and selection of an annular contour.

また、第2特徴点テーブル620は、血管部位抽出画像データ621を接続することで抽出される血管モデルデータ622と、血管の芯線を抽出した血管芯線623と、を記憶する。なお、本例では、抽象化して普遍的な特徴を考慮するため、血管芯線623により特徴点を抽出するが、特徴点が有する特徴がマッチング可能な程度に不変であれば、血管の太さの比率などを考慮してもよい。   The second feature point table 620 stores blood vessel model data 622 extracted by connecting the blood vessel part extraction image data 621 and a blood vessel core line 623 from which a blood vessel core line is extracted. In this example, in order to abstract and consider universal features, feature points are extracted from the blood vessel core line 623. However, if the features of the feature points are invariable so that they can be matched, You may consider a ratio etc.

そして、第2特徴点テーブル620は、本例の第2特徴点データ624として、血管芯線623のパターンから、枝分かれ点を特徴点として、枝分かれIDと、枝分かれ特徴データと、特徴点の3次元位置データと、を記憶する。枝分かれ特徴データについては、図5と同様であるので、詳細な説明を省略する。   The second feature point table 620 includes, as the second feature point data 624 of this example, a branch ID from the pattern of the blood vessel core line 623 as a feature point, branch feature data, and a three-dimensional position of the feature point. Data. Since the branching feature data is the same as that in FIG. 5, a detailed description thereof is omitted.

《表示画像生成部》
図7Aは、本実施形態に係る表示画像生成部423の機能構成を示すブロック図である。
<Display image generator>
FIG. 7A is a block diagram illustrating a functional configuration of the display image generation unit 423 according to the present embodiment.

表示画像生成部423は、3次元部位モデル取得部701と、分割領域取得部702と、3次元部位モデル配置部703と、分割領域配置部704と、第2特徴点データ取得部705と、分割領域マッチング部431と、を備える。ここで、3次元部位モデル配置部703と、分割領域配置部704とが、分割領域連結部432に相当する。また、表示画像生成部423は、患者位置データ取得部707と、患者位置のモデル生成部708と、HMD位置データ取得部709と、HMD画像生成部433と、を備える。   The display image generation unit 423 includes a three-dimensional part model acquisition unit 701, a divided region acquisition unit 702, a three-dimensional part model arrangement unit 703, a divided region arrangement unit 704, a second feature point data acquisition unit 705, and a division. A region matching unit 431. Here, the three-dimensional part model arrangement unit 703 and the divided region arrangement unit 704 correspond to the divided region connection unit 432. The display image generation unit 423 includes a patient position data acquisition unit 707, a patient position model generation unit 708, an HMD position data acquisition unit 709, and an HMD image generation unit 433.

3次元部位モデル取得部701は、3次元部位モデル受信部411で受信された3次元血管モデルを含む3次元部位モデルを取得する。分割領域取得部702は、分割領域生成部424で生成された分割領域を取得する。3次元部位モデル配置部703は、分割領域の配置に対応付けて3次元部位モデル取得部701が取得した3次元部位モデルデータを位置調整して配置する。分割領域配置部704は、分割領域に含まれる第1特徴点と第2特徴点とのマッチングにより分割領域が3次元超音波画像に合致するように、分割領域を位置調整して配置する。第2特徴点データ取得部705は、第2特徴点抽出部418から抽出された第2特徴点データを取得する。分割領域マッチング部431は、分割領域に含まれる第1特徴点と第2特徴点とをマッチングし、位置調整された分割領域の第1特徴点データが第2特徴点データに合致するように、3次元部位モデル配置部703および分割領域配置部704に対して位置調整による変形をさせる。なお、位置調整による変形としては、分割領域の形状を維持した並行移動や回転移動、あるいは、サイズ変更が含まれる。さらに、分割領域の配置後の特徴点を合致させる形状変化を含んでもよい。   The three-dimensional part model acquisition unit 701 acquires a three-dimensional part model including the three-dimensional blood vessel model received by the three-dimensional part model reception unit 411. The divided area acquisition unit 702 acquires the divided area generated by the divided area generation unit 424. The three-dimensional part model arrangement unit 703 adjusts and arranges the three-dimensional part model data acquired by the three-dimensional part model acquisition unit 701 in association with the arrangement of the divided regions. The divided region placement unit 704 arranges and arranges the divided regions so that the divided regions match the three-dimensional ultrasonic image by matching the first feature points and the second feature points included in the divided regions. The second feature point data acquisition unit 705 acquires the second feature point data extracted from the second feature point extraction unit 418. The divided region matching unit 431 matches the first feature point and the second feature point included in the divided region, and the first feature point data of the position-adjusted divided region matches the second feature point data. The three-dimensional part model placement unit 703 and the divided region placement unit 704 are deformed by position adjustment. Note that the deformation by position adjustment includes parallel movement, rotational movement, or size change while maintaining the shape of the divided area. Furthermore, a shape change that matches the feature points after the arrangement of the divided regions may be included.

患者位置データ取得部707は、患者位置検出部420から検出された患者位置データを取得する。患者位置のモデル生成部708は、分割領域連結部432において超音波画像に合致されるように位置調整された3次元部位モデルから、患者位置に重なる3次元モデルを生成する。HMD位置データ取得部709は、HMD位置算出部422から算出されたHMD位置データを取得する。HMD画像生成部710は、HMD位置データに対応して、患者位置のモデル生成部708が生成したモデルから、患者の生体に重なって見えるようHMD295に3次元表示するHMD画像を生成して、表示画像送信部425に出力する。   The patient position data acquisition unit 707 acquires patient position data detected from the patient position detection unit 420. The patient position model generation unit 708 generates a three-dimensional model that overlaps the patient position from the three-dimensional part model whose position is adjusted so as to match the ultrasound image in the divided region connection unit 432. The HMD position data acquisition unit 709 acquires the HMD position data calculated from the HMD position calculation unit 422. In response to the HMD position data, the HMD image generation unit 710 generates an HMD image that is three-dimensionally displayed on the HMD 295 so as to be superimposed on the patient's living body from the model generated by the model generation unit 708 of the patient position. The data is output to the image transmission unit 425.

(表示画像生成部の処理)
図7Bは、本実施形態に係る分割領域連結部432の処理720を説明する図である。なお、分割領域連結部432の処理720は、図7Bに限定されない。分割領域に含まれる第1特徴点が第2特徴点に合致するように、分割領域を位置調整することによって3次元部位モデルを変形する方式であればいずれの処理も適用可能である。
(Processing of display image generator)
FIG. 7B is a diagram for explaining the processing 720 of the divided region connecting unit 432 according to the present embodiment. Note that the processing 720 of the divided region connecting unit 432 is not limited to FIG. 7B. Any processing can be applied as long as the three-dimensional part model is deformed by adjusting the position of the divided region so that the first feature point included in the divided region matches the second feature point.

分割領域連結部432の処理720は、初期の3次元部位モデルから分割された分割領域データと分割領域に含まれる第1特徴点データとの組721から、分割領域の第1特徴点組と第2特徴点とのマッチングにより、サイズ変更や3次元の位置変換や方向変換をして分割領域を結合した3次元部位モデルデータ722への変換を含む。また、分割領域連結部432の処理720は、分割領域を結合した3次元部位モデルデータ722から生体の位置に合わせたサイズ調整データ723への変換を含む。   The process 720 of the divided region connecting unit 432 performs a first feature point set and a first set of divided regions from a set 721 of the divided region data divided from the initial three-dimensional part model and the first feature point data included in the divided regions. It includes conversion to three-dimensional part model data 722 in which divided regions are combined by performing size change, three-dimensional position conversion, and direction conversion by matching with two feature points. In addition, the process 720 of the divided region connecting unit 432 includes conversion from the three-dimensional part model data 722 obtained by combining the divided regions into the size adjustment data 723 that matches the position of the living body.

分割領域データと分割領域に含まれる第1特徴点データとの組721から、分割領域を結合した3次元部位モデルデータ722への変換は、第2特徴点データ726との分割領域マッチング724による分割領域の位置調整と連結を繰り返すことによって実現する。例えば、同一の特徴を有する第1特徴点と第2特徴点との最小2乗距離により、3次元超音波モデルに最も近いサイズや向きの分割領域に位置調整するが、他の方式も採用可能である。   The conversion from the set 721 of the divided area data and the first feature point data included in the divided area to the three-dimensional part model data 722 that combines the divided areas is performed by dividing the divided area data by the divided area matching 724 with the second feature point data 726. This is realized by repeating the position adjustment and connection of the regions. For example, the position is adjusted to the divided area of the size and orientation closest to the 3D ultrasonic model by the least square distance between the first feature point and the second feature point having the same feature, but other methods can also be adopted. It is.

次に、分割領域を結合した3次元部位モデルデータ722から生体の位置に合わせたサイズ調整データ723への変換は、患者位置データ取得部707により取得した生体位置727に重畳させるように、分割領域を結合した3次元部位モデルデータ722のサイズを変更する(725)。   Next, the conversion from the three-dimensional part model data 722 obtained by combining the divided areas into the size adjustment data 723 according to the position of the living body is superimposed on the living body position 727 acquired by the patient position data acquiring unit 707. The size of the three-dimensional part model data 722 combined with is changed (725).

図7Cは、本実施形態に係る分割領域連結テーブル730の構成および位置合わせ用情報の例740を示す図である。   FIG. 7C is a diagram illustrating an example 740 of the configuration and alignment information of the divided region connection table 730 according to the present embodiment.

分割領域連結テーブル730は、分割領域連結部432において、分割領域を連結して3次元超音波画像に合致した3次元部位モデルを生成するために使用される。   The divided region connection table 730 is used in the divided region connecting unit 432 to connect the divided regions and generate a three-dimensional part model that matches the three-dimensional ultrasonic image.

分割領域連結テーブル730は、図5の分割領域テーブル500の分割領域ID505と、分割領域データ506と、第1特徴点データ504と、を記憶する。分割領域連結テーブル730は、変更された分割領域のサイズ、方向および位置の現在値731と、現在値731に基づいて変更された第1特徴点データの変更位置732と、を記憶する。そして、分割領域連結テーブル730は、第1特徴点データの変更位置732と一致した第2特徴点データ733と、一致した第2特徴点データ733に基づいて、分割領域の連結位置734を記憶する。   The divided area connection table 730 stores the divided area ID 505, the divided area data 506, and the first feature point data 504 of the divided area table 500 of FIG. The divided region connection table 730 stores the current value 731 of the changed size, direction, and position of the divided region, and the changed position 732 of the first feature point data changed based on the current value 731. Then, the divided region connection table 730 stores divided region connection positions 734 based on the second feature point data 733 that matches the change position 732 of the first feature point data and the second feature point data 733 that matches. .

また、位置合わせ用情報の例740は、位置合わせの対象部位(臓器)において、特に、位置合わせの目標とすべき位置であり、マーカやセンサの配置位置、超音波プローブによる走査位置、を定めるために使用される。   In addition, the alignment information example 740 is a position to be a position alignment target in an alignment target part (organ), and determines a marker or sensor arrangement position and a scanning position by an ultrasonic probe. Used for.

位置合わせ用情報の例740は、位置合わせ対象部位741に対応付けて、位置合わせ用目標位置742と、その目標位置が有する条件743と、を記憶する。   The alignment information example 740 stores the alignment target position 742 and the condition 743 of the target position in association with the alignment target portion 741.

なお、分割領域の位置調整と連結処理中、あるいは、連結処理後に合致を補う非剛性変形を組み合わせてもよい。その場合、材質パラメータに基づく変換行列により非剛性変形をして最適解を求める方式であっても、単純に同一の特徴を有する第1特徴点と第2特徴点との距離のズレを変形補正する方式であってもよい。なお、材質パラメータとしては、一般的な内臓の非剛性パラメータを用いてもよいが、各患者について、あるいは、患部について、非剛性パラメータを測定して用いるのが望ましい。   Note that non-rigid deformation that compensates for a match may be combined during position adjustment of the divided region and the connection process, or after the connection process. In such a case, even if the optimal solution is obtained by performing non-rigid deformation using a transformation matrix based on the material parameters, the displacement of the distance between the first feature point and the second feature point having the same feature is simply corrected for deformation. It may be a system to do. As the material parameter, a general internal non-rigid parameter may be used, but it is desirable to measure and use the non-rigid parameter for each patient or the affected part.

さらに、非剛性材質が含む特徴点を合致させる他の方式が採用されてもよい。例えば、非剛性材質についての変形を学習情報として蓄積しておき、それを利用する方式であってもよい。3次元モデルが肝臓、胃、膵臓など器官単位である場合は、それら器官の多数の変形例を学習しておき、患者特有の変形を少ないパラメータで表現することも可能である。   Furthermore, other methods for matching feature points included in the non-rigid material may be employed. For example, a method may be used in which deformation of non-rigid material is accumulated as learning information and used. When the three-dimensional model is an organ unit such as the liver, stomach, or pancreas, it is possible to learn a large number of modified examples of these organs and express patient-specific deformation with a small number of parameters.

また、3次元部位を細かい格子状に特徴点を含む制御点を配置して、その制御点間を非剛体変形する方式でもよい。あるいは、B-Spline関数を利用した非剛体変形(FFD:Free-form deformation)を用いて、空間的に滑らかで不規則な変形(揺らぎ)を高精度に推定して、領域ベースの位置合わせを用いた超解像を行う方式であってもよい。   Further, a method may be used in which control points including feature points are arranged in a fine grid pattern in a three-dimensional part and non-rigid deformation is performed between the control points. Or, using non-rigid body deformation (FFD: Free-form deformation) using B-Spline function, spatially smooth and irregular deformation (fluctuation) is estimated with high accuracy, and region-based alignment is performed. The super-resolution method used may be used.

また、非剛体変形としては、アフィン変換や高次多項式を用いた変換も適用可能である。3次元モデルの合致評価としては、残差2乗和(SSD:Sum of squared difference)のよるものや、正規化相互相関(NCC:Normalized cross correlation)によるもの、相互情報量または正規化相互情報量(MI:Mutual information)によるもの、などが考えられる。   Further, as the non-rigid deformation, affine transformation or transformation using a higher order polynomial can be applied. Conformity evaluation of a three-dimensional model includes a method based on a sum of squared difference (SSD), a method based on normalized cross correlation (NCC), a mutual information amount or a normalized mutual information amount. (MI: Mutual information) is considered.

また、MRIやX線CTで得られた解剖学的情報を持つ画像と、PETやSPECTなどの機能的情報を持つ画像とを重ねることも行なわれており、その重ね合わせ技術も非剛体変形に適用可能である。   In addition, an image having anatomical information obtained by MRI or X-ray CT and an image having functional information such as PET or SPECT are superposed, and the superposition technique is also used for non-rigid deformation. Applicable.

(表示データ生成テーブル)
図8は、本実施形態に係る表示データ生成テーブル800の構成を示す図である。表示データ生成テーブル800は、患者201から実時間で取得した超音波画像データに合致する3次元部位モデルを患者201に重なるようにHMD295に表示するために使用するテーブルである。
(Display data generation table)
FIG. 8 is a diagram showing a configuration of the display data generation table 800 according to the present embodiment. The display data generation table 800 is a table used for displaying on the HMD 295 a three-dimensional site model that matches the ultrasound image data acquired from the patient 201 in real time so as to overlap the patient 201.

表示データ生成テーブル800は、実時間を示すタイムスタンプ801に対応付けて、超音波プローブ位置情報802と、患者位置情報803と、HMD位置情報804と、を記憶する。超音波プローブ位置情報802は、磁気センサ292の検出データと超音波プローブ291の位置データとを有する。患者位置情報803は、光学マーカ付き磁気センサ293の検出データと患者201の位置データとを有する。HMD位置情報804は、光学マーカ付き磁気センサ293の光学マーカの画像データとHMD位置データとを有する。   The display data generation table 800 stores ultrasonic probe position information 802, patient position information 803, and HMD position information 804 in association with a time stamp 801 indicating real time. The ultrasonic probe position information 802 includes detection data of the magnetic sensor 292 and position data of the ultrasonic probe 291. The patient position information 803 includes detection data of the magnetic sensor 293 with an optical marker and position data of the patient 201. The HMD position information 804 includes image data of the optical marker of the magnetic sensor with optical marker 293 and HMD position data.

そして、表示データ生成テーブル800は、上記位置情報を参照して生成されたHMD表示情報805を記憶する。HMD表示情報805は、上記位置情報を参照して生成された3次元部位モデルデータと、右目用HMD画像データと、左目用HMD画像データと、を含む。   The display data generation table 800 stores HMD display information 805 generated with reference to the position information. The HMD display information 805 includes 3D part model data generated by referring to the position information, right-eye HMD image data, and left-eye HMD image data.

《画像処理装置のハードウェア構成》
図9は、本実施形態に係る画像処理装置280のハードウェア構成を示すブロック図である。
<< Hardware configuration of image processing apparatus >>
FIG. 9 is a block diagram showing a hardware configuration of the image processing apparatus 280 according to the present embodiment.

図9で、CPU910は演算制御用のプロセッサであり、プログラムを実行することで図4の画像処理装置280の機能構成部を実現する。ROM920は、初期データおよびプログラムなどの固定データおよびプログラムを記憶する。また、通信制御部413は、ネットワークを介して診察室や手術室230の診察/手術器具群や他の装置と通信する。なお、CPU910は1つに限定されず、複数のCPUであっても、あるいは画像処理用のGPUを含んでもよい。また、通信制御部413は、CPU910とは独立したCPUを有して、RAM940の領域に送受信データを書き込みあるいは読み出しするのが望ましい。また、RAM940とストレージ950との間でデータを転送するDMACを設けるのが望ましい(図示なし)。さらに、入出力インタフェース960は、CPU910とは独立したCPUを有して、RAM940の領域に入出力データを書き込みあるいは読み出しするのが望ましい。したがって、CPU910は、RAM940にデータが受信あるいは転送されたことを認識してデータを処理する。また、CPU910は、処理結果をRAM940に準備し、後の送信あるいは転送は通信制御部413やDMAC、あるいは入出力インタフェース960に任せる。   In FIG. 9, a CPU 910 is a processor for arithmetic control, and implements a functional component of the image processing apparatus 280 of FIG. 4 by executing a program. The ROM 920 stores fixed data and programs such as initial data and programs. Further, the communication control unit 413 communicates with the examination / surgical instrument group in the examination room or the operating room 230 and other devices via the network. Note that the number of CPUs 910 is not limited to one, and may be a plurality of CPUs or may include a GPU for image processing. Further, it is desirable that the communication control unit 413 has a CPU independent of the CPU 910 and writes or reads transmission / reception data in an area of the RAM 940. In addition, it is desirable to provide a DMAC for transferring data between the RAM 940 and the storage 950 (not shown). Further, the input / output interface 960 preferably includes a CPU independent of the CPU 910 and writes or reads input / output data to / from the area of the RAM 940. Accordingly, the CPU 910 recognizes that the data has been received or transferred to the RAM 940 and processes the data. Further, the CPU 910 prepares the processing result in the RAM 940 and leaves the subsequent transmission or transfer to the communication control unit 413, the DMAC, or the input / output interface 960.

RAM940は、CPU910が一時記憶のワークエリアとして使用するランダムアクセスメモリである。RAM940には、本実施形態の実現に必要なデータを記憶する領域が確保されている。3次元部位モデルデータ501は、CTデータから生成されて受信された3次元STL形式の3次元血管モデルを含む3次元部位モデルデータである。第1特徴点データ504は、3次元部位モデルデータ501から抽出された第1特徴点のデータである。分割領域データ506は、第1特徴点データ504を含み、3次元部位モデルデータ501から分割された分割領域のデータである。超音波モデルデータ619は、超音波プローブ203で実時間に検出した超音波信号から生成された3次元血管画像を含む3次元画像データである。第2特徴点データ624は、超音波モデルデータ619から抽出された第2特徴点のデータである。分割領域マッチングテーブル730は、図7Cに示した、分割領域マッチング部431が、分割領域が含む第1特徴点と第2特徴点とのマッチングをして分割領域を連結するためのテーブルである。HMD位置データ804は、Webカメラ294が撮像した光学マーカの画像に基づいて算出されたHMD295の位置データである。表示画像データ805は、位置調整して連結した分割領域に基づく3次元部位モデルを患者201に重ねて、HMD295に3次元表示するために生成されたデータである。なお、RAM940の各データは、前出の図5、図6A、図6B、図7C、図8のようにテーブルとして記憶されてもよい。   The RAM 940 is a random access memory that the CPU 910 uses as a work area for temporary storage. In the RAM 940, an area for storing data necessary for realizing the present embodiment is secured. The three-dimensional part model data 501 is three-dimensional part model data including a three-dimensional STL format three-dimensional blood vessel model generated and received from CT data. The first feature point data 504 is first feature point data extracted from the three-dimensional part model data 501. The divided area data 506 includes the first feature point data 504, and is divided area data divided from the three-dimensional part model data 501. The ultrasonic model data 619 is three-dimensional image data including a three-dimensional blood vessel image generated from an ultrasonic signal detected by the ultrasonic probe 203 in real time. The second feature point data 624 is second feature point data extracted from the ultrasonic model data 619. The divided region matching table 730 is a table for connecting the divided regions by the divided region matching unit 431 shown in FIG. 7C by matching the first feature point and the second feature point included in the divided region. The HMD position data 804 is position data of the HMD 295 calculated based on the optical marker image captured by the Web camera 294. The display image data 805 is data generated in order to display a three-dimensional display on the HMD 295 by superimposing a three-dimensional part model on the patient 201 based on divided regions connected by adjusting positions. Each data in the RAM 940 may be stored as a table as shown in FIGS. 5, 6A, 6B, 7C, and 8 described above.

ストレージ950には、データベースや各種のパラメータ、あるいは本実施形態の実現に必要な以下のデータまたはプログラムが記憶されている。特徴点抽出アルゴリズム951は、第1特徴点あるいは第2特徴点を抽出するためのアルゴリズムである。領域分割アルゴリズム952は、第1特徴点を含む小領域に3次元部位モデルを分割するためのアルゴリズムである。分割領域マッチングアルゴリズム953は、第1特徴点を含む分割領域を第2特徴点に合致させるためのアルゴリズムである。   The storage 950 stores a database, various parameters, or the following data or programs necessary for realizing the present embodiment. The feature point extraction algorithm 951 is an algorithm for extracting the first feature point or the second feature point. The area division algorithm 952 is an algorithm for dividing the three-dimensional part model into small areas including the first feature points. The divided region matching algorithm 953 is an algorithm for matching a divided region including the first feature point with the second feature point.

ストレージ950には、以下のプログラムが格納される。画像処理プログラム955は、本画像処理装置280の全体を制御するプログラムである。特徴点抽出モジュール956は、特徴点抽出アルゴリズム951に従って第1特徴点あるいは第2特徴点を抽出するモジュールである。領域分割モジュール957は、領域分割アルゴリズム952に従って第1特徴点を含む分割領域を生成するモジュールである。分割領域マッチングモジュール958は、分割領域マッチングアルゴリズム953に従って分割領域が含む第1特徴点を第2特徴点に合致させるように分割領域を位置調整して連結するモジュールである。表示画像生成モジュール959は、変形された3次元部位モデルを表わすSTLデータを患者201の生体内部にあるように、HMD295に3次元表示する表示画像を生成するモジュールである。   The storage 950 stores the following programs. The image processing program 955 is a program that controls the entire image processing apparatus 280. The feature point extraction module 956 is a module that extracts the first feature point or the second feature point according to the feature point extraction algorithm 951. The area dividing module 957 is a module that generates a divided area including the first feature point in accordance with the area dividing algorithm 952. The divided region matching module 958 is a module that adjusts and connects the divided regions so that the first feature points included in the divided regions match the second feature points according to the divided region matching algorithm 953. The display image generation module 959 is a module that generates a display image that is three-dimensionally displayed on the HMD 295 so that the STL data representing the deformed three-dimensional part model is inside the living body of the patient 201.

入出力インタフェース960は、入出力機器との入出力データをインタフェースする。入出力インタフェース960には、必要であれば、表示部961、操作部962、が接続される。なお、診察/手術器具群を有線接続する場合は、診察/手術器具群に含まれる磁気センサ231付きの超音波プローブ203や、光学マーカ付き磁気センサ293、Webカメラ294、HMD295が入出力インタフェース960に接続される。また、入出力インタフェース960には、必要であれば、音声入出力部や、GPS位置判定部が接続されてもよい。   The input / output interface 960 interfaces input / output data with input / output devices. If necessary, a display unit 961 and an operation unit 962 are connected to the input / output interface 960. When the diagnosis / surgical instrument group is connected by wire, the ultrasonic probe 203 with the magnetic sensor 231, the magnetic sensor 293 with the optical marker, the Web camera 294, and the HMD 295 included in the diagnosis / surgical instrument group are included in the input / output interface 960. Connected to. The input / output interface 960 may be connected to a voice input / output unit or a GPS position determination unit, if necessary.

なお、図9のRAM940やストレージ950には、画像処理装置280が有する汎用の機能や他の実現可能な機能に関連するプログラムやデータは図示されていない。   Note that the RAM 940 and the storage 950 in FIG. 9 do not show programs and data related to general-purpose functions and other realizable functions that the image processing apparatus 280 has.

《画像処理装置の処理手順》
図10は、本実施形態に係る画像処理装置280の処理手順を示すフローチャートである。このフローチャートは、図9のCPU910がRAM940を使用して実行し、図4および図7Aの機能構成部を実現する。
<< Processing procedure of image processing apparatus >>
FIG. 10 is a flowchart showing a processing procedure of the image processing apparatus 280 according to the present embodiment. This flowchart is executed by the CPU 910 in FIG. 9 using the RAM 940, and implements the functional components shown in FIGS. 4 and 7A.

画像処理装置280は、ステップS1001において、外部の3次元モデル生成装置212から3次元血管モデルを含む3次元部位モデルデータを受信する。なお、画像処理装置280内部でCTデータからSTLデータを生成する場合は、CTデータを受信してSTLデータを生成した後、3次元部位モデルデータを生成する。画像処理装置280は、ステップS1003において、3次元部位モデルデータに基づいて第1特徴点抽出処理を実行する。画像処理装置280は、ステップS1005において、例えばSTL形式で表わされる3次元部位モデルを、第1特徴点を含む小領域への領域分割処理を実行する。   In step S <b> 1001, the image processing device 280 receives 3D site model data including a 3D blood vessel model from the external 3D model generation device 212. In addition, when generating STL data from CT data in the image processing apparatus 280, after receiving CT data and generating STL data, three-dimensional site model data is generated. In step S1003, the image processing device 280 executes a first feature point extraction process based on the three-dimensional part model data. In step S <b> 1005, the image processing apparatus 280 executes region division processing on a three-dimensional part model expressed in, for example, the STL format into small regions including the first feature points.

画像処理装置280は、ステップS1007において、超音波プローブ203からの超音波画像データおよび磁気センサ231および磁気センサ293からの磁気センサ位置(超音波プローブ位置)を取得する。そして、画像処理装置280は、ステップS1009において、各超音波プローブ203の位置と超音波画像データとを蓄積して、3次元超音波モデルデータを生成する。画像処理装置280は、ステップ1011において、3次元超音波モデルデータに基づいて第2特徴点抽出処理を実行する。   In step S1007, the image processing apparatus 280 acquires the ultrasonic image data from the ultrasonic probe 203 and the magnetic sensor positions (ultrasonic probe positions) from the magnetic sensor 231 and the magnetic sensor 293. In step S1009, the image processing apparatus 280 accumulates the position of each ultrasonic probe 203 and ultrasonic image data, and generates three-dimensional ultrasonic model data. In step 1011, the image processing device 280 executes a second feature point extraction process based on the three-dimensional ultrasonic model data.

画像処理装置280は、ステップS1013において、分割領域に含まれる第1特徴点と第2特徴点とのマッチングを行ない、分割領域の第1特徴点が第2特徴点に合致するか否かを判定する。分割領域の第1特徴点が第2特徴点に合致しない場合、画像処理装置280は、ステップS1015において、分割領域の位置調整を行ない、第1特徴点を調整する。STL形式の分割領域データの場合は、STLデータの変換を行なう。このように、分割領域の第1特徴点と第2特徴点とのマッチングを繰り返す。   In step S1013, the image processing apparatus 280 performs matching between the first feature point and the second feature point included in the divided region, and determines whether or not the first feature point of the divided region matches the second feature point. To do. If the first feature point of the divided region does not match the second feature point, the image processing apparatus 280 adjusts the first feature point by adjusting the position of the divided region in step S1015. In the case of divided area data in the STL format, the STL data is converted. In this way, matching between the first feature point and the second feature point of the divided region is repeated.

分割領域の第1特徴点が第2特徴点に合致する場合、画像処理装置280は、ステップS1017において、分割領域を他の分割領域と連結する。そして、画像処理装置280は、ステップS1019において、ステップS1005で分割された小領域の連結が完了したか否かを判定する。分割領域の連結が完了していない場合、画像処理装置280は、ステップS1013に戻って、次の分割領域について分割領域の位置調整と連結処理を継続する。   If the first feature point of the divided area matches the second feature point, the image processing apparatus 280 connects the divided area to another divided area in step S1017. In step S1019, the image processing apparatus 280 determines whether the connection of the small areas divided in step S1005 has been completed. If the connection of the divided areas has not been completed, the image processing apparatus 280 returns to step S1013 and continues the position adjustment of the divided areas and the connection process for the next divided area.

分割領域の連結が完了すると、3次元超音波モデルに対応する3次元部位モデルが生成されているので、画像処理装置280は、ステップS1021において、患者201に配置した光学マーカ付き磁気センサ293から磁気センサ位置(患者位置)を取得して、患者201の生体内部に、分割処理と連結処理とにより変形した3次元部位モデルを表示するように調整する。次に、画像処理装置280は、ステップS1023において、Webカメラ294から光学マーカ付き磁気センサ293の光学マーカ画像を取得する。そして、画像処理装置280は、光学マーカ画像から患者201とHMD295との位置関係を算出して、分割処理と連結処理とにより変形した3次元部位モデルが患者目視と重なるように、HMD295の表示データを生成して出力する。   When the connection of the divided areas is completed, a three-dimensional part model corresponding to the three-dimensional ultrasonic model has been generated. Therefore, in step S1021, the image processing device 280 performs magnetism from the magnetic sensor with optical marker 293 disposed on the patient 201. The sensor position (patient position) is acquired and adjusted so that the three-dimensional part model deformed by the division process and the connection process is displayed inside the living body of the patient 201. Next, the image processing apparatus 280 acquires an optical marker image of the magnetic sensor 293 with an optical marker from the Web camera 294 in step S1023. Then, the image processing device 280 calculates the positional relationship between the patient 201 and the HMD 295 from the optical marker image, and displays the display data of the HMD 295 so that the three-dimensional part model deformed by the division process and the connection process overlaps the patient's visual observation. Is generated and output.

画像処理装置280は、ステップS1025において、患者201の生体内部への3次元部位モデルの表示の終了か否かを判定する。3次元部位モデルの表示の終了でなければ、画像処理装置280は、ステップS1021に戻って、超音波画像に位置合わせした3次元部位モデルの患者201の生体内部への表示を実時間に繰り返す。そして、例えば、肝臓の形が変形した時には、もう一度、超音波を使ったスキャンをして、新たな位置合わせを行う。すなわち、肝臓の形が変わらなければ、超音波によるスキャンなしで肝臓の観察を続ける。   In step S1025, the image processing apparatus 280 determines whether or not the display of the three-dimensional part model inside the living body of the patient 201 is completed. If the display of the three-dimensional part model is not completed, the image processing apparatus 280 returns to step S1021 and repeats the display of the three-dimensional part model aligned with the ultrasonic image inside the living body of the patient 201 in real time. For example, when the shape of the liver is deformed, another scan is performed using ultrasonic waves to perform new alignment. That is, if the shape of the liver does not change, observation of the liver is continued without scanning with ultrasound.

(特徴点抽出処理)
図11は、本実施形態に係る特徴点抽出処理(S1003/S1011)の手順を示すフローチャートである。
(Feature point extraction process)
FIG. 11 is a flowchart showing a procedure of feature point extraction processing (S1003 / S1011) according to the present embodiment.

画像処理装置280は、ステップS1111において、対象とする3次元モデルデータを取得する。第1特徴点抽出処理(S1003)の場合は、対象とする3次元モデルデータは3次元部位モデルデータであり、第2特徴点抽出処理(S1011)の場合は、対象とする3次元モデルデータは超音波モデルデータである。画像処理装置280は、ステップS1113において、取得した3次元モデルデータから血管モデルデータを抽出する。なお、第1特徴点抽出処理(S1003)の場合、あらかじめ血管モデルデータが取得されていれば、ステップS1113は必要ない。   In step S <b> 1111, the image processing apparatus 280 acquires target three-dimensional model data. In the case of the first feature point extraction process (S1003), the target 3D model data is 3D part model data, and in the case of the second feature point extraction process (S1011), the target 3D model data is Ultrasonic model data. In step S1113, the image processing apparatus 280 extracts blood vessel model data from the acquired three-dimensional model data. In the case of the first feature point extraction process (S1003), step S1113 is not necessary if blood vessel model data has been acquired in advance.

画像処理装置280は、ステップS1115において、血管モデルデータに基づいて血管芯線を抽出して、抽象化された血管パターンを生成する。次に、画像処理装置280は、ステップS1117において、血管芯線のパターンに基づき、血管の枝分かれ点を特徴点として抽出する。そして、画像処理装置280は、ステップS1119において、枝分かれ点の特徴データおよびその3次元位置との組を比較可能に格納する。   In step S1115, the image processing apparatus 280 extracts a blood vessel core line based on the blood vessel model data, and generates an abstracted blood vessel pattern. Next, in step S1117, the image processing apparatus 280 extracts a branch point of the blood vessel as a feature point based on the blood vessel core line pattern. Then, in step S1119, the image processing apparatus 280 stores the set of branch point feature data and their three-dimensional positions so that they can be compared.

(領域分割処理)
図12は、本実施形態に係る領域分割処理(S1005)の手順を示すフローチャートである。
(Area division processing)
FIG. 12 is a flowchart showing the procedure of the area division processing (S1005) according to the present embodiment.

画像処理装置280は、ステップS1201において、本例では、血管芯線において少なくとも3つの枝分かれ点を第1特徴点として含む領域に、3次元部位モデルを分割する。次に、画像処理装置280は、ステップS1203において、各分割領域に識別子(ID)を付与する。そして、画像処理装置280は、ステップS1205において、分割領域IDに対応付けて第1特徴点組を記憶する。   In step S1201, in this example, the image processing apparatus 280 divides the three-dimensional part model into a region including at least three branch points in the blood vessel core as first feature points. Next, the image processing apparatus 280 assigns an identifier (ID) to each divided region in step S1203. In step S1205, the image processing apparatus 280 stores the first feature point set in association with the divided region ID.

なお、本実施形態においては、オプティカルシースルー型HMDへの変形された3次元部位モデルの表示を示したが、Webカメラ294で撮像した患者の生体画像に、変形された3次元部位モデルを重畳して、ビデオスルー型HMDやモニタ、あるいは、携帯端末などに表示してもよい。   In the present embodiment, the display of the deformed three-dimensional part model on the optical see-through HMD is shown. However, the deformed three-dimensional part model is superimposed on the patient's biological image captured by the Web camera 294. Then, it may be displayed on a video-through HMD, a monitor, or a portable terminal.

本実施形態によれば、3次元超音波モデルに対応して変形された3次元部位モデルを患者の生体に重ねて表示するので、患者の生体内部の実時間における部位の状態を、生体内部の正確な位置において認識することができる。   According to this embodiment, since the three-dimensional part model deformed corresponding to the three-dimensional ultrasonic model is displayed superimposed on the patient's living body, the state of the part in the patient's living body in real time It can be recognized at an accurate position.

[第3実施形態]
次に、本発明の第3実施形態に係る医療支援システムについて説明する。本実施形態に係る医療支援システムは、上記第2実施形態と比べると、CT画像などから得た3次元部位モデルを超音波画像に対応して変形して、腹腔鏡により観察する内部画像に重畳して表示する点で異なる。その他の構成および動作は、第2実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
[Third Embodiment]
Next, a medical support system according to a third embodiment of the present invention will be described. Compared with the second embodiment, the medical support system according to the present embodiment deforms a three-dimensional site model obtained from a CT image or the like corresponding to an ultrasonic image and superimposes it on an internal image observed by a laparoscope It is different in that it is displayed. Since other configurations and operations are the same as those of the second embodiment, the same configurations and operations are denoted by the same reference numerals, and detailed description thereof is omitted.

《医療支援システムの構成》
図13Aおよび図13Bを参照して、本実施形態の医療支援システムの構成および動作について説明する。
《Configuration of medical support system》
With reference to FIG. 13A and FIG. 13B, a structure and operation | movement of the medical assistance system of this embodiment are demonstrated.

(システム概要)
図13Aは、本実施形態に係る医療支援システム1300の処理概要を示すブロック図である。なお、図13Aにおいて、図2Aと同様の構成要素には同じ参照番号を付して、説明を省略する。
(System overview)
FIG. 13A is a block diagram illustrating an outline of processing of the medical support system 1300 according to the present embodiment. In FIG. 13A, the same components as those in FIG. 2A are denoted by the same reference numerals, and description thereof is omitted.

医療支援システム1300においては、棒状の超音波プローブ1303を体内に挿入し、腹腔鏡1391で観察している部位周囲の超音波画像を取得する。また、手術室1330において実時間に生体内部を観察する腹腔鏡1391に固定した位置検出用器具を用いて、腹腔鏡1391の観察画像と実時間の超音波画像に対応して変形された3次元部位モデルとの位置関係が計測される。そして、計測された位置関係に基づき、3次元部位モデルを調整して、腹腔鏡1391の観察画像に重畳して3次元表示1370をする。図13Aでは、3次元表示1370において、腹腔鏡1391の観察画像である点描の肝臓画像1372に重畳した部位モデルとして血管モデル1371を分かり易く示しているが、実際には腹腔鏡1391では観察できない組織内部の結果が重畳表示される。なお、腹腔鏡1391の観察画像に重畳して3次元部位モデルの3次元表示をする表示部は、携帯端末やモニタ、あるいは、ビデオシースルー型HMDが望ましい。ここで、位置検出用器具は、腹腔鏡1391の先端に固定した磁気センサが使用される。また、観察画像と3次元部位モデルの表示との位置関係を高い精度で得るためには、臓器に光学マーカを固定するのが望ましい。   In the medical support system 1300, a rod-shaped ultrasonic probe 1303 is inserted into the body, and an ultrasonic image around the site observed by the laparoscope 1391 is acquired. In addition, a three-dimensional deformed corresponding to the observation image of the laparoscope 1391 and the real-time ultrasonic image using a position detection instrument fixed to the laparoscope 1391 observing the inside of the living body in real time in the operating room 1330 The positional relationship with the part model is measured. Then, based on the measured positional relationship, the three-dimensional region model is adjusted and superimposed on the observation image of the laparoscope 1391 to display a three-dimensional display 1370. In FIG. 13A, in the three-dimensional display 1370, the blood vessel model 1371 is shown as an easy-to-understand part model superimposed on a stippled liver image 1372 that is an observation image of the laparoscope 1391. The internal results are displayed superimposed. Note that the display unit that superimposes on the observation image of the laparoscope 1391 and displays the three-dimensional region model three-dimensionally is preferably a portable terminal, a monitor, or a video see-through HMD. Here, a magnetic sensor fixed to the tip of a laparoscope 1391 is used as the position detection instrument. In order to obtain the positional relationship between the observation image and the display of the three-dimensional site model with high accuracy, it is desirable to fix the optical marker to the organ.

(システム構成)
図13Bは、本実施形態に係る医療支援システム1300の構成を示すブロック図である。なお、図13Bにおいて、図2Bと同様の構成要素には同じ参照番号を付して、説明を省略する。
(System configuration)
FIG. 13B is a block diagram illustrating a configuration of a medical support system 1300 according to the present embodiment. In FIG. 13B, the same reference numerals are assigned to the same components as in FIG. 2B, and the description thereof is omitted.

医療支援システム1300は、CT装置211と、3次元モデル生成装置212と、画像処理装置1380と、診察室や手術室1330の診察/手術器具群と、を備える。   The medical support system 1300 includes a CT apparatus 211, a three-dimensional model generation apparatus 212, an image processing apparatus 1380, and a diagnosis / surgical instrument group in an examination room or an operating room 1330.

診察室や手術室1330の診察/手術器具群は、棒状の超音波プローブ1303と、超音波プローブに固定された磁気センサ1331と、腹腔鏡1391と、腹腔鏡に固定された磁気センサ1392と、モニタ1370と、生体または対象臓器に固定された磁気センサ1393とを有する。磁気センサ1331および磁気センサ1393により、超音波プローブ1303の安定した位置検出ができる。腹腔鏡1391は、実時間の診察中あるいは手術中に、患者201から生体内の画像を取得する。磁気センサ1392は、腹腔鏡1391の先端位置に配置されて、腹腔鏡1391の観察位置を検出する。磁気センサ1392および磁気センサ1393により、腹腔鏡1391の安定した位置検出ができる。   The examination / surgical instrument group in the examination room or operating room 1330 includes a rod-shaped ultrasonic probe 1303, a magnetic sensor 1331 fixed to the ultrasonic probe, a laparoscope 1391, a magnetic sensor 1392 fixed to the laparoscope, It has a monitor 1370 and a magnetic sensor 1393 fixed to a living body or a target organ. The magnetic sensor 1331 and the magnetic sensor 1393 can stably detect the position of the ultrasonic probe 1303. The laparoscope 1391 acquires in-vivo images from the patient 201 during real-time examination or surgery. The magnetic sensor 1392 is disposed at the tip position of the laparoscope 1391 and detects the observation position of the laparoscope 1391. The magnetic sensor 1392 and the magnetic sensor 1393 can stably detect the position of the laparoscope 1391.

画像処理装置1380は、3次元データで表わされる3次元部位モデルを領域分割し、磁気センサ1331の検出信号によって位置および向きを判定した超音波プローブ1303が取得した3次元超音波画像に合致するように連結することにより変形する。そして、画像処理装置1380は、変形した3次元部位モデルを、腹腔鏡1391が取得した観察画像に重畳させた3次元表示データを生成して、モニタ1370に表示させる。また、術者202が操作する腹腔鏡手術の処置具1373が、腹腔鏡1391により観察されて、モニタ1370に表示されている。   The image processing device 1380 divides the three-dimensional part model represented by the three-dimensional data into regions and matches the three-dimensional ultrasonic image acquired by the ultrasonic probe 1303 whose position and orientation are determined by the detection signal of the magnetic sensor 1331. It deforms by connecting to. Then, the image processing device 1380 generates three-dimensional display data in which the deformed three-dimensional part model is superimposed on the observation image acquired by the laparoscope 1391 and displays the data on the monitor 1370. A laparoscopic treatment tool 1373 operated by the operator 202 is observed by the laparoscope 1391 and displayed on the monitor 1370.

なお、図13Bには、術者202しか図示されていないが、実際の腹腔鏡手術では、腹腔鏡を操作するスコピストと超音波プローブを操作する術者あるいは助手など複数の人間により操作されることになる。また、腹腔鏡1391が取得した観察画像に合致させた3次元部位モデルを重畳させてビデオシースルー型HMDに表示してもよい。   Although only the operator 202 is shown in FIG. 13B, in actual laparoscopic surgery, the operation is performed by a plurality of humans such as a scopist who operates the laparoscope and an operator or assistant who operates the ultrasonic probe. become. In addition, a three-dimensional part model matched with the observation image acquired by the laparoscope 1391 may be superimposed and displayed on the video see-through HMD.

《画像処理装置の機能構成》
図14は、本実施形態に係る画像処理装置1380の機能構成を示すブロック図である。なお、図14において、図4と同様の機能構成部には同じ参照番号を付して、説明を省略する。
<< Functional configuration of image processing apparatus >>
FIG. 14 is a block diagram showing a functional configuration of the image processing apparatus 1380 according to this embodiment. In FIG. 14, the same functional components as those in FIG. 4 are denoted by the same reference numerals, and description thereof is omitted.

磁気信号受信部1419は、通信制御部413を介して、腹腔鏡1391に配置した磁気センサ1392からの磁気検出信号を受信する。腹腔鏡位置検出部1420は、磁気センサ1392からの磁気検出信号と磁気センサ1393からの磁気検出信号とに基づいて、腹腔鏡1391の位置および向きを検出する。なお、磁気センサ1392が磁気検出信号から位置および向きを検出するための記憶部を有する場合は、位置および向きを示すデータ(例えば、座標とベクトル)を受信してもよい。腹腔鏡画像受信部1421は、通信制御部413を介して、腹腔鏡1391から観察画像を受信する。なお、腹腔鏡画像受信部1421は、腹腔鏡1391が腹腔鏡画像データを生成する機能を有する場合には、腹腔鏡画像データを、直接、受信してもよい。磁気信号受信部1422は、通信制御部413を介して、生体201または生体内の対象臓器に配置した磁気センサ1393からの磁気検出信号を受信する。   The magnetic signal receiving unit 1419 receives a magnetic detection signal from the magnetic sensor 1392 disposed in the laparoscope 1391 via the communication control unit 413. The laparoscope position detector 1420 detects the position and orientation of the laparoscope 1391 based on the magnetic detection signal from the magnetic sensor 1392 and the magnetic detection signal from the magnetic sensor 1393. Note that in the case where the magnetic sensor 1392 includes a storage unit for detecting the position and orientation from the magnetic detection signal, data (for example, coordinates and vectors) indicating the position and orientation may be received. The laparoscopic image receiving unit 1421 receives an observation image from the laparoscope 1391 via the communication control unit 413. Note that the laparoscopic image receiving unit 1421 may directly receive laparoscopic image data when the laparoscope 1391 has a function of generating laparoscopic image data. The magnetic signal receiving unit 1422 receives a magnetic detection signal from the magnetic sensor 1393 disposed in the living body 201 or a target organ in the living body via the communication control unit 413.

表示画像生成部1423の生成モデル重畳部1433は、STL形式などで表わされる3次元部位モデルを領域分割して特徴点が対応するように連結することによって、実時間の3次元超音波モデルに合致するよう変形された3次元部位モデルを、腹腔鏡1391が取得した観察画像に重畳した画像を生成する。そして、生成モデル重畳部1433は、生成した重畳画像を、表示画像送信部425からモニタ1370や携帯端末、あるいは、ビデオシースルー型HMDに送信して表示させる。   The generation model superimposing unit 1433 of the display image generating unit 1423 matches the real-time three-dimensional ultrasound model by dividing the three-dimensional part model represented in the STL format and the like so that the feature points correspond to each other. An image is generated by superimposing the three-dimensional site model deformed to the observation image acquired by the laparoscope 1391. Then, the generated model superimposing unit 1433 transmits the generated superimposed image from the display image transmitting unit 425 to the monitor 1370, the portable terminal, or the video see-through HMD for display.

本実施形態によれば、腹腔鏡により取得した生体内部画像に、3次元超音波画像に対応して変形された3次元部位モデルを重ねて表示するので、患者の生体内部の実時間における部位の状態を、生体内部の画像を伴い正確に認識することができる。   According to this embodiment, since the three-dimensional region model deformed corresponding to the three-dimensional ultrasound image is superimposed on the in-vivo image acquired by the laparoscope, the region in real time inside the patient's body is displayed. The state can be accurately recognized with an image inside the living body.

[第4実施形態]
次に、本発明の第4実施形態に係る医療支援システムについて説明する。本実施形態に係る医療支援システムは、上記第2実施形態と比べると、3次元超音波モデルに対応して変形した3次元部位モデルを患者の生体上のシートディスプレイに表示する点で異なる。その他の構成および動作は、第2実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
[Fourth Embodiment]
Next, a medical support system according to the fourth embodiment of the present invention will be described. The medical support system according to the present embodiment is different from the second embodiment in that a three-dimensional part model deformed corresponding to the three-dimensional ultrasonic model is displayed on a sheet display on a patient's living body. Since other configurations and operations are the same as those of the second embodiment, the same configurations and operations are denoted by the same reference numerals, and detailed description thereof is omitted.

《医療支援システムの構成》
図15は、本実施形態に係る医療支援システム1500の構成を示すブロック図である。なお、図15において、図2Bまたは図13Bと同様の構成要素は同じ参照番号を付して、説明を省略する。
《Configuration of medical support system》
FIG. 15 is a block diagram illustrating a configuration of a medical support system 1500 according to the present embodiment. In FIG. 15, the same components as those in FIG. 2B or FIG. 13B are denoted by the same reference numerals, and description thereof is omitted.

医療支援システム1500は、CT装置211と、3次元モデル生成装置212と、画像処理装置1580と、診察室や手術室1530の診察/手術器具群と、を備える。   The medical support system 1500 includes a CT apparatus 211, a three-dimensional model generation apparatus 212, an image processing apparatus 1580, and a diagnosis / surgical instrument group in an examination room or an operating room 1530.

診察室や手術室1530の診察/手術器具群は、超音波プローブ203と、超音波プローブに固定された磁気センサ231と、光学マーカ付き磁気センサ293と、ビデオカメラ1594と、シートディスプレイ1595と、を有する。ビデオカメラ1594は、シートディスプレイ1595に配置された光学マーカ付き磁気センサ293の光学マーカを撮像する。患者201の表面に配置されたシートディスプレイ1595は、3次元超音波モデルに合致するように変形された3次元データで表わされる3次元モデルを、生体内部の正確な位置に表示する。   The examination / surgical instrument group in the examination room or operating room 1530 includes an ultrasonic probe 203, a magnetic sensor 231 fixed to the ultrasonic probe, a magnetic sensor 293 with an optical marker, a video camera 1594, a sheet display 1595, Have The video camera 1594 captures an image of the optical marker of the magnetic sensor with optical marker 293 arranged on the sheet display 1595. A sheet display 1595 arranged on the surface of the patient 201 displays a three-dimensional model represented by three-dimensional data deformed to match the three-dimensional ultrasonic model at an accurate position inside the living body.

画像処理装置1580は、3次元データで表わされる3次元部位モデルを、超音波プローブ203からの超音波信号と超音波プローブ203の位置情報とを蓄積して得た3次元超音波モデルに合致するように変形する。そして、画像処理装置1580は、変形した3次元部位モデルが患者201の生体内部の正確な位置にあるように3次元表示データを生成して、シートディスプレイ1595に3次元表示させる。   The image processing apparatus 1580 matches the three-dimensional site model represented by the three-dimensional data with the three-dimensional ultrasonic model obtained by accumulating the ultrasonic signal from the ultrasonic probe 203 and the position information of the ultrasonic probe 203. It deforms as follows. Then, the image processing apparatus 1580 generates three-dimensional display data so that the deformed three-dimensional part model is at an accurate position inside the living body of the patient 201 and displays the three-dimensional display on the sheet display 1595.

なお、本実施形態において、シートディスプレイ1595は患者201の生体表面と同じなので、画像処理装置1580は、患者201およびシートディスプレイ1595の位置および向きを光学マーカの撮像画像から検出すればよく、患者201とシートディスプレイ1595との位置関係を算出する必要はない。   In the present embodiment, since the sheet display 1595 is the same as the living body surface of the patient 201, the image processing apparatus 1580 may detect the positions and orientations of the patient 201 and the sheet display 1595 from the captured image of the optical marker. It is not necessary to calculate the positional relationship between the sheet display 1595 and the sheet display 1595.

《画像処理装置の機能構成》
図16は、本実施形態に係る画像処理装置1580の機能構成を示すブロック図である。なお、図16において、図4または図14と同様の機能構成部には同じ参照番号を付して、説明を省略する。
<< Functional configuration of image processing apparatus >>
FIG. 16 is a block diagram illustrating a functional configuration of the image processing apparatus 1580 according to the present embodiment. In FIG. 16, the same functional components as those in FIG. 4 or FIG.

シート位置算出部1622は、光学マーカ画像受信部421が受信した光学マーカの撮影画像に基づいて、シートディスプレイ1595の正確な位置を算出する。   The sheet position calculation unit 1622 calculates the accurate position of the sheet display 1595 based on the captured image of the optical marker received by the optical marker image reception unit 421.

表示画像生成部1623のシート画像生成部1633は、患者位置検出部420が検出した患者201の位置に調整したSLTデータによる3次元部位モデルが重なるように、シート位置算出部1622で算出したシートディスプレイ位置に3次元表示する表示画像を生成する。表示画像送信部1625は、シート画像生成部1633が生成した患者201の位置に重なる画像データを、通信制御部413を介して、シートディスプレイ1595に表示すべく送信する。   The sheet image generation unit 1633 of the display image generation unit 1623 calculates the sheet display calculated by the sheet position calculation unit 1622 so that the three-dimensional part model based on the SLT data adjusted by the position of the patient 201 detected by the patient position detection unit 420 overlaps. A display image for three-dimensional display at a position is generated. The display image transmission unit 1625 transmits the image data that overlaps the position of the patient 201 generated by the sheet image generation unit 1633 to be displayed on the sheet display 1595 via the communication control unit 413.

なお、シート画像生成部1633の構成および動作は、3次元部位モデルの表示先がHMD295からシートディスプレイ1595に変わるのみで第2実施形態と同様なので、ここでは詳説を省略する。しかし、本例では、シートディスプレイ1595が非剛体変形するので、シート状非剛体の変形操作が必要であり、既存の技術が利用できる。   Note that the configuration and operation of the sheet image generation unit 1633 are the same as those in the second embodiment, except that the display destination of the three-dimensional part model is changed from the HMD 295 to the sheet display 1595, and thus detailed description thereof is omitted here. However, in this example, since the sheet display 1595 is deformed non-rigidly, a deformation operation of the sheet-shaped non-rigid body is necessary, and an existing technique can be used.

本実施形態によれば、変形された3次元部位モデルを患者の生体上のシートディスプレイに表示するので、視線などを考慮することなく普通に患者の生体内部の実時間における部位の状態を正確な位置において認識することができる。   According to the present embodiment, since the deformed three-dimensional part model is displayed on the sheet display on the patient's living body, the state of the part in the real time inside the patient's living body is usually accurately determined without considering the line of sight or the like. Can be recognized in position.

[第5実施形態]
次に、本発明の第5実施形態に係る医療支援システムについて説明する。本実施形態に係る医療支援システムは、上記第3実施形態と比べると、腹腔鏡1391の観察画像に変形した3次元部位モデルを重畳した画像を、ネットワークを介して通信端末に表示させる点で異なる。その他の構成および動作は、第3実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
[Fifth Embodiment]
Next, a medical support system according to a fifth embodiment of the invention will be described. The medical support system according to the present embodiment is different from the third embodiment in that an image obtained by superimposing a deformed three-dimensional part model on an observation image of the laparoscope 1391 is displayed on a communication terminal via a network. . Since other configurations and operations are the same as those of the third embodiment, the same configurations and operations are denoted by the same reference numerals, and detailed description thereof is omitted.

《医療支援システムの構成》
図17は、本実施形態に係る医療支援システム1700の構成を示すブロック図である。なお、図17において、図2B、図13B、図15と同様の構成要素には同じ参照番号を付して、説明を省略する。
《Configuration of medical support system》
FIG. 17 is a block diagram illustrating a configuration of a medical support system 1700 according to the present embodiment. In FIG. 17, the same components as those in FIGS. 2B, 13B, and 15 are denoted by the same reference numerals, and description thereof is omitted.

図17において、画像処理装置1780は、図13Bの画像処理装置と同様に腹腔鏡1391の観察画像に重畳して3次元部位モデルを表示する。同時に、画像処理装置1780は、腹腔鏡1391で撮像した観察画像に3次元部位モデルを重畳した画像を生成し、ネットワーク1790を介して、外部の他の医師やユーザに配信する。配信先には、ノートPC1791や、スマートフォンやタブレットなどの携帯端末1792、モニタ179i、サーバ179nなどが接続されてよい。   In FIG. 17, the image processing device 1780 displays a three-dimensional part model superimposed on the observation image of the laparoscope 1391 as in the image processing device of FIG. 13B. At the same time, the image processing device 1780 generates an image in which the three-dimensional region model is superimposed on the observation image captured by the laparoscope 1391 and distributes it to other doctors and users via the network 1790. A notebook PC 1791, a portable terminal 1792 such as a smartphone or a tablet, a monitor 179i, a server 179n, or the like may be connected to the distribution destination.

本実施形態によれば、診察室や手術室の外部において他の医師や第三者も患者の生体内部の腹腔鏡の観察画像を監視でき、より正確な医療を支援することができる。   According to the present embodiment, other doctors and third parties can monitor the observation image of the laparoscope inside the living body of the patient outside the examination room or the operating room, and can support more accurate medical care.

[他の実施形態]
上記実施形態においては、本発明の医療支援システムの限られた構成例しか示されていない。図18は、本発明の医療支援システムの種々の構成例1800を示す図である。本発明は図18の例に限定されないが、図18から本発明の適用範囲が明らかである。
[Other Embodiments]
In the above embodiment, only a limited configuration example of the medical support system of the present invention is shown. FIG. 18 is a diagram showing various configuration examples 1800 of the medical support system of the present invention. The present invention is not limited to the example of FIG. 18, but the scope of application of the present invention is clear from FIG.

図18の構成例1800には、変形して表示する3次元部位モデル1801と、3次元部位モデル1801の位置合わせに使用される3次元超音波モデル1802と、部位モデル合致方法(位置合わせ方法)1803と、3次元部位モデル1801を重ね合わせる対象1804と、表示部1805と、が示されている。これらは、それぞれ独立して組み合わされて、より好適な位置合わせと重ね合わせが実現される。   The configuration example 1800 in FIG. 18 includes a three-dimensional part model 1801 to be displayed in a deformed form, a three-dimensional ultrasonic model 1802 used for positioning the three-dimensional part model 1801, and a part model matching method (positioning method). 1803, a target 1804 on which a three-dimensional part model 1801 is superimposed, and a display unit 1805 are shown. These can be combined independently to achieve better alignment and overlay.

また、実施形態を参照して本発明を説明したが、本発明は上記実施形態に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。また、それぞれの実施形態に含まれる別々の特徴を如何様に組み合わせたシステムまたは装置も、本発明の範疇に含まれる。   Although the present invention has been described with reference to the embodiments, the present invention is not limited to the above-described embodiments. Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention. In addition, a system or an apparatus in which different features included in each embodiment are combined in any way is also included in the scope of the present invention.

また、本発明は、複数の機器から構成されるシステムに適用されてもよいし、単体の装置に適用されてもよい。さらに、本発明は、実施形態の機能を実現する制御プログラムが、システムあるいは装置に直接あるいは遠隔から供給される場合にも適用可能である。したがって、本発明の機能をコンピュータで実現するために、コンピュータにインストールされるプログラム、あるいはそのプログラムを格納した媒体、そのプログラムをダウンロードさせるWWW(World Wide Web)サーバも、本発明の範疇に含まれる。特に、少なくとも、上述した実施形態に含まれる処理ステップをコンピュータに実行させるプログラムを格納した非一時的コンピュータ可読媒体(non-transitory computer readable medium)は本発明の範疇に含まれる。   In addition, the present invention may be applied to a system composed of a plurality of devices, or may be applied to a single device. Furthermore, the present invention can also be applied to a case where a control program that realizes the functions of the embodiments is supplied directly or remotely to a system or apparatus. Therefore, in order to realize the functions of the present invention on a computer, a program installed in the computer, a medium storing the program, and a WWW (World Wide Web) server that downloads the program are also included in the scope of the present invention. . In particular, at least a non-transitory computer readable medium storing a program for causing a computer to execute the processing steps included in the above-described embodiments is included in the scope of the present invention.

Claims (15)

患者の断層撮影画像群に基づいて、3次元部位モデルのデータを生成する部位モデル生成手段と、
前記3次元部位モデルから、所定の特徴を有する複数の第1特徴点の位置情報を抽出する第1特徴点抽出手段と、
前記患者に対して超音波プローブを用いて取得した超音波データと、前記超音波データを取得した前記超音波プローブの位置および向きデータとを対応付けて蓄積し、前記超音波データと前記位置および向きデータとを用いて、3次元超音波モデルのデータを生成する超音波モデル生成手段と、
前記3次元超音波モデルから、前記所定の特徴を有する複数の第2特徴点の位置情報を抽出する第2特徴点抽出手段と、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように、前記3次元部位モデルを変形する変形手段と、
前記変形手段により変形された前記3次元部位モデルの投影画像を表示する表示手段と、
を備える医療支援システム。
A part model generation means for generating data of a three-dimensional part model based on a tomographic image group of a patient;
First feature point extraction means for extracting position information of a plurality of first feature points having a predetermined feature from the three-dimensional part model;
Ultrasound data acquired using an ultrasound probe for the patient and the position and orientation data of the ultrasound probe from which the ultrasound data was acquired are stored in association with each other, and the ultrasound data and the position and Ultrasonic model generation means for generating data of a three-dimensional ultrasonic model using the orientation data;
Second feature point extracting means for extracting position information of a plurality of second feature points having the predetermined feature from the three-dimensional ultrasonic model;
Deformation means for deforming the three-dimensional site model so that the plurality of first feature points and the plurality of second feature points overlap;
Display means for displaying a projection image of the three-dimensional part model deformed by the deformation means;
A medical support system comprising:
前記変形手段は、
前記3次元部位モデルを、各々が少なくとも1つの前記第1特徴点を含む複数の3次元領域に分割する分割領域生成手段と、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように前記複数の3次元領域のそれぞれを位置調整し、位置調整された前記複数の3次元領域を互いに連結する分割領域連結手段と、
を有し、
前記表示手段は、前記分割領域連結手段が連結した前記複数の3次元領域を前記3次元部位モデルとして表示する請求項1に記載の医療支援システム。
The deformation means includes
A divided region generating means for dividing the three-dimensional part model into a plurality of three-dimensional regions each including at least one first feature point;
Divided region connection that adjusts the position of each of the plurality of three-dimensional regions so that the plurality of first feature points and the plurality of second feature points overlap each other, and connects the plurality of three-dimensional regions that have been adjusted to each other. Means,
Have
The medical support system according to claim 1, wherein the display unit displays the plurality of three-dimensional regions connected by the divided region connecting unit as the three-dimensional part model.
前記複数の第1特徴点は、前記3次元部位モデルの注目部位に含まれる3次元血管モデルの特徴点であり、前記複数の第2特徴点は、前記3次元超音波モデルの前記注目部位に含まれる3次元血管モデルの特徴点であり、
前記表示手段は、前記3次元血管モデルを前記3次元部位モデルとして表示する、請求項1または2に記載の医療支援システム。
The plurality of first feature points are feature points of a three-dimensional blood vessel model included in a target region of the three-dimensional site model, and the plurality of second feature points are included in the target region of the three-dimensional ultrasound model. It is a feature point of the included 3D blood vessel model,
The medical support system according to claim 1, wherein the display unit displays the three-dimensional blood vessel model as the three-dimensional site model.
前記生体と、前記生体の位置および向きまたは生体画像の位置および向きを検出するための第1位置検出用器具とを撮像する撮像手段と、
撮像された前記第1位置検出用器具の位置および向きに基づいて、前記変形手段により変形された前記3次元部位モデルの位置、向きおよび大きさを調整する第1調整手段と、
をさらに備え、
前記表示手段は、前記変形され調整された3次元部位モデルを、前記患者の生体または生体画像に重なるように表示する、請求項1乃至3のいずれか1項に記載の医療支援システム。
Imaging means for imaging the living body and a first position detection instrument for detecting the position and orientation of the living body or the position and orientation of the living body image;
First adjusting means for adjusting the position, orientation and size of the three-dimensional part model deformed by the deforming means based on the imaged position and orientation of the first position detecting instrument;
Further comprising
The medical support system according to any one of claims 1 to 3, wherein the display unit displays the deformed and adjusted three-dimensional part model so as to overlap the living body or the living body image of the patient.
前記第1位置検出用器具は、光学マーカ付きの磁気センサまたは光学マーカである請求項4に記載の医療支援システム。   The medical support system according to claim 4, wherein the first position detection instrument is a magnetic sensor with an optical marker or an optical marker. 前記生体の内部を撮像する、第2位置検出用器具が固定された腹腔鏡と、
前記第2位置検出用器具の位置および向きと前記超音波プローブの位置および向きとに基づいて、前記変形手段により変形された前記3次元部位モデルの位置、向きおよび大きさを調整する第2調整手段と、
をさらに備え、
前記表示手段は、前記変形され調整された3次元部位モデルを、前記腹腔鏡が撮像した生体内画像に重なるように表示する、請求項1乃至3のいずれか1項に記載の医療支援システム。
A laparoscope for imaging the inside of the living body, to which a second position detection instrument is fixed;
Second adjustment for adjusting the position, orientation and size of the three-dimensional part model deformed by the deformation means based on the position and orientation of the second position detecting instrument and the position and orientation of the ultrasonic probe Means,
Further comprising
The medical support system according to any one of claims 1 to 3, wherein the display unit displays the deformed and adjusted three-dimensional site model so as to overlap an in-vivo image captured by the laparoscope.
前記第2位置検出用器具は、磁気センサである請求項6に記載の医療支援システム。   The medical support system according to claim 6, wherein the second position detection instrument is a magnetic sensor. 前記超音波プローブに固定された第3位置検出用器具の位置および向きを検出する超音波プローブ位置検出手段を有する請求項1乃至7のいずれか1項に記載の医療支援システム。   The medical support system according to any one of claims 1 to 7, further comprising an ultrasonic probe position detection unit configured to detect a position and an orientation of a third position detection instrument fixed to the ultrasonic probe. 前記第3位置検出用器具は光学マーカまたは磁気センサである、請求項8に記載の医療支援システム。   The medical support system according to claim 8, wherein the third position detection instrument is an optical marker or a magnetic sensor. 前記表示手段は、前記変形され調整された3次元部位モデルと前記生体とを重なるように表示するオプティカルシースルー型のヘッドマウントディスプレイ、または、前記変形され調整された3次元部位モデルと前記生体画像とを重なるように表示するビデオシースルー型のヘッドマウントディスプレイである請求項1乃至9のいずれか1項に記載の医療支援システム。   The display means includes an optical see-through head mounted display that displays the deformed and adjusted three-dimensional part model and the living body so as to overlap each other, or the deformed and adjusted three-dimensional part model and the living body image. The medical support system according to any one of claims 1 to 9, wherein the medical support system is a video see-through type head-mounted display that displays the images so as to overlap each other. 前記表示手段は、前記変形され調整された3次元部位モデルと、前記生体または生体画像とが重なるように表示するシートディスプレイである請求項1乃至9のいずれか1項に記載の医療支援システム。   The medical support system according to any one of claims 1 to 9, wherein the display unit is a sheet display that displays the deformed and adjusted three-dimensional site model and the living body or the living body image so as to overlap each other. 患者の断層撮影画像群に基づいて、3次元部位モデルのデータを生成する部位モデル生成ステップと、
前記3次元部位モデルから、所定の特徴を有する複数の第1特徴点の位置情報を抽出する第1特徴点抽出ステップと、
前記患者に対して超音波プローブを用いて取得した超音波データと、前記超音波データを取得した前記超音波プローブの位置および向きデータとを対応付けて蓄積手段に蓄積する蓄積ステップと、
前記超音波データと前記位置および向きデータとを用いて、3次元超音波モデルのデータを生成する超音波モデル生成ステップと、
前記3次元超音波モデルから、前記所定の特徴を有する複数の第2特徴点の位置情報を抽出する第2特徴点抽出ステップと、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように、前記3次元部位モデルを変形する変形ステップと、
前記変形ステップにおいて変形された前記3次元部位モデルの投影画像を表示する表示ステップと、
を含む医療支援方法。
A site model generation step for generating data of a 3D site model based on a tomographic image group of a patient;
A first feature point extracting step of extracting position information of a plurality of first feature points having a predetermined feature from the three-dimensional part model;
An accumulation step of associating and accumulating in the accumulation means the ultrasound data acquired using an ultrasound probe for the patient and the position and orientation data of the ultrasound probe from which the ultrasound data was acquired;
An ultrasonic model generation step of generating data of a three-dimensional ultrasonic model using the ultrasonic data and the position and orientation data;
A second feature point extracting step of extracting position information of a plurality of second feature points having the predetermined feature from the three-dimensional ultrasonic model;
A deforming step of deforming the three-dimensional site model so that the plurality of first feature points and the plurality of second feature points overlap;
A display step of displaying a projected image of the three-dimensional part model deformed in the deformation step;
Including medical support methods.
患者の断層撮影画像群に基づいて生成された3次元部位モデルのデータを受信する受信手段と、
前記3次元部位モデルから、所定の特徴を有する複数の第1特徴点の位置情報を抽出する第1特徴点抽出手段と、
前記患者に対して超音波プローブを用いて取得した超音波データと、前記超音波データを取得した前記超音波プローブの位置および向きデータとを対応付けて蓄積する蓄積手段と、
前記超音波データと前記位置および向きデータとを用いて、3次元超音波モデルのデータを生成する超音波モデル生成手段と、
前記3次元超音波モデルから、前記所定の特徴を有する複数の第2特徴点の位置情報を抽出する第2特徴点抽出手段と、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように、前記3次元部位モデルを変形する変形手段と、
前記変形手段により変形された前記3次元部位モデルの投影画像を表示手段に送信する送信手段と、
を備える画像処理装置。
Receiving means for receiving data of a three-dimensional site model generated based on a tomographic image group of a patient;
First feature point extraction means for extracting position information of a plurality of first feature points having a predetermined feature from the three-dimensional part model;
Accumulation means for accumulating the ultrasonic data acquired using an ultrasonic probe for the patient and the position and orientation data of the ultrasonic probe from which the ultrasonic data was acquired;
An ultrasonic model generating means for generating data of a three-dimensional ultrasonic model using the ultrasonic data and the position and orientation data;
Second feature point extracting means for extracting position information of a plurality of second feature points having the predetermined feature from the three-dimensional ultrasonic model;
Deformation means for deforming the three-dimensional site model so that the plurality of first feature points and the plurality of second feature points overlap;
Transmitting means for transmitting a projection image of the three-dimensional part model deformed by the deforming means to a display means;
An image processing apparatus comprising:
患者の断層撮影画像群に基づいて生成された3次元部位モデルのデータを受信する受信ステップと、
前記3次元部位モデルから、所定の特徴を有する複数の第1特徴点の位置情報を抽出する第1特徴点抽出ステップと、
前記患者に対して超音波プローブを用いて取得した超音波データと、前記超音波データを取得した前記超音波プローブの位置および向きデータとを対応付けて蓄積手段に蓄積する蓄積ステップと、
前記超音波データと前記位置および向きデータとを用いて、3次元超音波モデルのデータを生成する超音波モデル生成ステップと、
前記3次元超音波モデルから、前記所定の特徴を有する複数の第2特徴点の位置情報を抽出する第2特徴点抽出ステップと、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように、前記3次元部位モデルを変形する変形ステップと、
前記変形ステップにおいて変形された前記3次元部位モデルの投影画像を表示手段に送信する送信ステップと、
を含む画像処理装置の制御方法。
A receiving step of receiving data of a three-dimensional site model generated based on a tomographic image group of a patient;
A first feature point extracting step of extracting position information of a plurality of first feature points having a predetermined feature from the three-dimensional part model;
An accumulation step of associating and accumulating in the accumulation means the ultrasound data acquired using an ultrasound probe for the patient and the position and orientation data of the ultrasound probe from which the ultrasound data was acquired;
An ultrasonic model generation step of generating data of a three-dimensional ultrasonic model using the ultrasonic data and the position and orientation data;
A second feature point extracting step of extracting position information of a plurality of second feature points having the predetermined feature from the three-dimensional ultrasonic model;
A deforming step of deforming the three-dimensional site model so that the plurality of first feature points and the plurality of second feature points overlap;
A transmission step of transmitting to the display means a projection image of the three-dimensional region model deformed in the deformation step;
A method for controlling an image processing apparatus.
患者の断層撮影画像群に基づいて生成された3次元部位モデルのデータを受信する受信ステップと、
前記3次元部位モデルから、所定の特徴を有する複数の第1特徴点の位置情報を抽出する第1特徴点抽出ステップと、
前記患者に対して超音波プローブを用いて取得した超音波データと、前記超音波データを取得した前記超音波プローブの位置および向きデータとを対応付けて蓄積手段に蓄積する蓄積ステップと、
前記超音波データと前記位置および向きデータとを用いて、3次元超音波モデルのデータを生成する超音波モデル生成ステップと、
前記3次元超音波モデルから、前記所定の特徴を有する複数の第2特徴点の位置情報を抽出する第2特徴点抽出ステップと、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように、前記3次元部位モデルを変形する変形ステップと、
前記変形ステップにおいて変形された前記3次元部位モデルの投影画像を表示手段に送信する送信ステップと、
をコンピュータに実行させる画像処理装置の制御プログラム。
A receiving step of receiving data of a three-dimensional site model generated based on a tomographic image group of a patient;
A first feature point extracting step of extracting position information of a plurality of first feature points having a predetermined feature from the three-dimensional part model;
An accumulation step of associating and accumulating in the accumulation means the ultrasound data acquired using an ultrasound probe for the patient and the position and orientation data of the ultrasound probe from which the ultrasound data was acquired;
An ultrasonic model generation step of generating data of a three-dimensional ultrasonic model using the ultrasonic data and the position and orientation data;
A second feature point extracting step of extracting position information of a plurality of second feature points having the predetermined feature from the three-dimensional ultrasonic model;
A deforming step of deforming the three-dimensional site model so that the plurality of first feature points and the plurality of second feature points overlap;
A transmission step of transmitting to the display means a projection image of the three-dimensional region model deformed in the deformation step;
Control program for an image processing apparatus that causes a computer to execute
JP2015084771A 2015-04-17 2015-04-17 MEDICAL SUPPORT SYSTEM, MEDICAL SUPPORT METHOD, IMAGE PROCESSING APPARATUS, AND CONTROL METHOD AND CONTROL PROGRAM THEREOF Active JP6510301B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015084771A JP6510301B2 (en) 2015-04-17 2015-04-17 MEDICAL SUPPORT SYSTEM, MEDICAL SUPPORT METHOD, IMAGE PROCESSING APPARATUS, AND CONTROL METHOD AND CONTROL PROGRAM THEREOF

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015084771A JP6510301B2 (en) 2015-04-17 2015-04-17 MEDICAL SUPPORT SYSTEM, MEDICAL SUPPORT METHOD, IMAGE PROCESSING APPARATUS, AND CONTROL METHOD AND CONTROL PROGRAM THEREOF

Publications (2)

Publication Number Publication Date
JP2016202351A true JP2016202351A (en) 2016-12-08
JP6510301B2 JP6510301B2 (en) 2019-05-08

Family

ID=57486235

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015084771A Active JP6510301B2 (en) 2015-04-17 2015-04-17 MEDICAL SUPPORT SYSTEM, MEDICAL SUPPORT METHOD, IMAGE PROCESSING APPARATUS, AND CONTROL METHOD AND CONTROL PROGRAM THEREOF

Country Status (1)

Country Link
JP (1) JP6510301B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110021386A (en) * 2017-07-27 2019-07-16 北大医疗信息技术有限公司 Feature extracting method and feature deriving means, equipment, storage medium
WO2019155931A1 (en) * 2018-02-09 2019-08-15 ソニー株式会社 Surgical system, image processing device, and image processing method
JP2020501691A (en) * 2016-12-16 2020-01-23 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. System that provides images that guide surgery
JP6660659B1 (en) * 2019-02-01 2020-03-11 TCC Media Lab株式会社 Synthetic image generation system and position information correction system
JP2020092816A (en) * 2018-12-12 2020-06-18 キヤノンメディカルシステムズ株式会社 Medical image processing apparatus, x-ray ct apparatus, and medical image processing method
JP2020518937A (en) * 2017-05-04 2020-06-25 エムアイエム ソフトウェア, インコーポレイテッド Predictive fusion system and method
JP2020137103A (en) * 2019-02-19 2020-08-31 株式会社シンクアウト Information processing system and information processing program
JP2021523784A (en) * 2018-05-14 2021-09-09 ノバラッド コーポレイションNovarad Corporation Alignment of patient image data with actual patient scene using optical cord attached to patient
WO2023162657A1 (en) * 2022-02-28 2023-08-31 富士フイルム株式会社 Medical assistance device, medical assistance device operation method, and operation program
WO2023243280A1 (en) * 2022-06-15 2023-12-21 株式会社アールテック Medical image processing device and medical image processing method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007136133A (en) * 2005-11-18 2007-06-07 Toshio Fukuda System for presenting augmented reality
JP2009291614A (en) * 2008-06-04 2009-12-17 Medison Co Ltd System and method for matching ultrasound images and ct image
JP2011031042A (en) * 2009-07-31 2011-02-17 Medison Co Ltd Ultrasonic system and sensor coordinate calibration method
US20140321726A1 (en) * 2013-04-25 2014-10-30 Samsung Medison Co., Ltd. Method and apparatus for image registration
JP2014221175A (en) * 2013-05-14 2014-11-27 健司 三木 Ultrasonic diagnostic system, image processor and control method and control program therefor

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007136133A (en) * 2005-11-18 2007-06-07 Toshio Fukuda System for presenting augmented reality
JP2009291614A (en) * 2008-06-04 2009-12-17 Medison Co Ltd System and method for matching ultrasound images and ct image
JP2011031042A (en) * 2009-07-31 2011-02-17 Medison Co Ltd Ultrasonic system and sensor coordinate calibration method
US20140321726A1 (en) * 2013-04-25 2014-10-30 Samsung Medison Co., Ltd. Method and apparatus for image registration
JP2014221175A (en) * 2013-05-14 2014-11-27 健司 三木 Ultrasonic diagnostic system, image processor and control method and control program therefor

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
三木 健司: "AR(拡張現実)を応用した術中超音波肝切除ナビゲーションシステムの開発", 新医療, vol. 第41巻、第5号, JPN6019001346, May 2014 (2014-05-01), pages 118 - 121, ISSN: 0003959622 *

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020501691A (en) * 2016-12-16 2020-01-23 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. System that provides images that guide surgery
US11571180B2 (en) 2016-12-16 2023-02-07 Koninklijke Philips N.V. Systems providing images guiding surgery
JP2020518937A (en) * 2017-05-04 2020-06-25 エムアイエム ソフトウェア, インコーポレイテッド Predictive fusion system and method
US11580651B2 (en) 2017-05-04 2023-02-14 Mim Software, Inc. System and method for predictive fusion
CN110021386A (en) * 2017-07-27 2019-07-16 北大医疗信息技术有限公司 Feature extracting method and feature deriving means, equipment, storage medium
WO2019155931A1 (en) * 2018-02-09 2019-08-15 ソニー株式会社 Surgical system, image processing device, and image processing method
JP2021523784A (en) * 2018-05-14 2021-09-09 ノバラッド コーポレイションNovarad Corporation Alignment of patient image data with actual patient scene using optical cord attached to patient
US12033741B2 (en) 2018-05-14 2024-07-09 Novarad Corporation Aligning image data of a patient with actual views of the patient using an optical code affixed to the patient
JP7190145B2 (en) 2018-05-14 2022-12-15 ノバラッド コーポレイション Alignment of patient image data with the patient's actual scene using an optical code attached to the patient
JP2020092816A (en) * 2018-12-12 2020-06-18 キヤノンメディカルシステムズ株式会社 Medical image processing apparatus, x-ray ct apparatus, and medical image processing method
JP7164423B2 (en) 2018-12-12 2022-11-01 キヤノンメディカルシステムズ株式会社 MEDICAL IMAGE PROCESSING APPARATUS, X-RAY CT APPARATUS, AND MEDICAL IMAGE PROCESSING METHOD
US11055873B2 (en) 2019-02-01 2021-07-06 Tcc Media Lab Co., Ltd Composite image generation system and position information correction system
WO2020157984A1 (en) * 2019-02-01 2020-08-06 TCC Media Lab株式会社 Composite image generation system and position information correction system
JP6660659B1 (en) * 2019-02-01 2020-03-11 TCC Media Lab株式会社 Synthetic image generation system and position information correction system
JP2020137103A (en) * 2019-02-19 2020-08-31 株式会社シンクアウト Information processing system and information processing program
JP7304508B2 (en) 2019-02-19 2023-07-07 株式会社シンクアウト Information processing system and information processing program
WO2023162657A1 (en) * 2022-02-28 2023-08-31 富士フイルム株式会社 Medical assistance device, medical assistance device operation method, and operation program
WO2023243280A1 (en) * 2022-06-15 2023-12-21 株式会社アールテック Medical image processing device and medical image processing method

Also Published As

Publication number Publication date
JP6510301B2 (en) 2019-05-08

Similar Documents

Publication Publication Date Title
JP6510301B2 (en) MEDICAL SUPPORT SYSTEM, MEDICAL SUPPORT METHOD, IMAGE PROCESSING APPARATUS, AND CONTROL METHOD AND CONTROL PROGRAM THEREOF
US10881353B2 (en) Machine-guided imaging techniques
EP3081184B1 (en) System and method for fused image based navigation with late marker placement
JP5858636B2 (en) Image processing apparatus, processing method thereof, and program
JP6049202B2 (en) Image processing apparatus, method, and program
JP5504028B2 (en) Observation support system, method and program
JP5995408B2 (en) Information processing apparatus, photographing system, information processing method, and program for causing computer to execute information processing
JPWO2013141155A1 (en) Image complementation system for image occlusion area, image processing apparatus and program thereof
US20230114385A1 (en) Mri-based augmented reality assisted real-time surgery simulation and navigation
JP6290723B2 (en) Surgery support device and surgery support system
JP2009028362A (en) Medical image processor and medical image diagnosis apparatus
EP3328305B1 (en) Microscope tracking based on video analysis
CN108629845A (en) Operation piloting method, device, equipment, system and readable storage medium storing program for executing
JP6493885B2 (en) Image alignment apparatus, method of operating image alignment apparatus, and image alignment program
US11596373B2 (en) Medical imaging apparatus providing AR-support
WO2024067753A1 (en) Registration method, registration system, navigation information determination method, and navigation system
JP6476125B2 (en) Image processing apparatus and surgical microscope system
US20150348311A1 (en) Method and apparatus for determining a surface topography of a body in a coordinate system fixed in space and/or fixed on the body
JP2014104328A (en) Operation support system, operation support method, and operation support program
JP7027029B2 (en) Ultrasound diagnostic equipment and medical image processing equipment
EP4128145B1 (en) Combining angiographic information with fluoroscopic images
JP2013048688A (en) Image processing device, image processing method and program
JP7495216B2 (en) Endoscopic surgery support device, endoscopic surgery support method, and program
US12190410B2 (en) Augmenting a medical image with an intelligent ruler
WO2007117695A2 (en) Human anatomic mapping and positioning and anatomic targeting accuracy

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180330

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20180330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180330

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190404

R150 Certificate of patent or registration of utility model

Ref document number: 6510301

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250