[go: up one dir, main page]

JP2002253480A - Device for assisting medical treatment - Google Patents

Device for assisting medical treatment

Info

Publication number
JP2002253480A
JP2002253480A JP2001058909A JP2001058909A JP2002253480A JP 2002253480 A JP2002253480 A JP 2002253480A JP 2001058909 A JP2001058909 A JP 2001058909A JP 2001058909 A JP2001058909 A JP 2001058909A JP 2002253480 A JP2002253480 A JP 2002253480A
Authority
JP
Japan
Prior art keywords
image
endoscope
medical treatment
data
probe
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001058909A
Other languages
Japanese (ja)
Inventor
Yasuhiko Kikuchi
康彦 菊地
Yuichi Morisane
祐一 森實
Kunihide Kaji
国英 梶
Hiroaki Kagawa
裕昭 加川
Shuichi Kimura
修一 木村
Yasushi Takahashi
裕史 高橋
Takechiyo Nakamitsu
竹千代 中満
Takeaki Nakamura
剛明 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP2001058909A priority Critical patent/JP2002253480A/en
Publication of JP2002253480A publication Critical patent/JP2002253480A/en
Pending legal-status Critical Current

Links

Landscapes

  • Endoscopes (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a medical treatment assisting device for easily grasping a site to the treated in a medical treatment and smoothly performing the medical treatment. SOLUTION: The medical treatment assisting device is provided with an endoscope having a first inserting part which consists of an observing part (22) for obtaining the observation image signal of a subject and of a first position detecting means (23) for detecting at least the position of a tip, a first inserting tool which consists of a second inserting part and of a second position detecting means (24) for detecting the inserting position of the second inserting part, a first arithmetic means (29) for obtaining position relation between the tip of the endoscope and the first inserting part based on position information from the first and second position detecting means and a synthesizing means (33) for synthesizing an endoscope image obtained based on the observation image signal with the inserting position of the second inserting part as an image based on the arithmetic result of the first arithmetic means and displaying and outputting it.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、医療処置補助装置
に関し、特に、被検体の画像データを基に医療処置を補
助する医療処置補助装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a medical treatment assisting device, and more particularly to a medical treatment assisting device for assisting a medical treatment based on image data of a subject.

【0002】[0002]

【従来の技術】従来、手術用の医療器具の位置と、手術
前に撮像した被検体である患者の画像を、同一画面に表
示する技術として、特開平11−318937号公報に
記載のものがある。これは、外科手術等を補助するため
のものであり、外科医等により操作される医療器具の動
きに応じて、予め記録された関連画像を表示するもので
ある。特に、特開平11−318937号公報に記載の
装置は、位置を特定するための基準ユニットを患者に固
定することによって、患者が動いても医療器具の位置に
ずれを生じることなく、正確な医療器具の位置表示を可
能とすることを目的をしている。
2. Description of the Related Art Conventionally, as a technique for displaying, on the same screen, the position of a medical instrument for surgery and an image of a patient who is a subject taken before surgery, a technique disclosed in Japanese Patent Application Laid-Open No. H11-318937 has been proposed. is there. This is for assisting a surgical operation or the like, and displays a related image recorded in advance according to the movement of a medical instrument operated by a surgeon or the like. In particular, the device described in Japanese Patent Application Laid-Open No. H11-318937 discloses an accurate medical device by fixing a reference unit for specifying a position to a patient without displacing the position of a medical device even when the patient moves. It is intended to be able to display the position of the device.

【0003】その装置は、その位置検出のために、多方
向、例えば3次元方向に磁場等を発生するフィールド発
生器と、その磁場を検出するセンサを含む。そして、セ
ンサで検出された多方向の磁場データに基づいて所定の
演算処理を行なうことで、その装置は、医療器具の三次
元の座標位置(X,Y,Z)を算出し、医療器具の正確
な位置表示を可能とする。
[0003] The device includes a field generator for generating a magnetic field or the like in multiple directions, for example, three-dimensional directions, for detecting its position, and a sensor for detecting the magnetic field. Then, by performing predetermined arithmetic processing based on multi-directional magnetic field data detected by the sensor, the device calculates three-dimensional coordinate positions (X, Y, Z) of the medical device, and Enables accurate position display.

【0004】[0004]

【発明が解決しようとする課題】しかし、その装置で
は、医者に対して、医療器具と被検者である患者との立
体的な位置関係を示すために、モニタ上に多方向からの
画像を表示する。具体的には、算出された医療器具の座
標位置に応じて、予め記録された患者の正面方向、横方
向および軸方向の画像データが、それぞれモニタ上に表
示される。ところが、外科医等の手術者が、このような
多方向からの画像データを見て、目的位置に対する医療
器具の位置を立体的に理解することは容易ではない。さ
らに言えば、手術における処置の可否は手術者の経験、
勘に委ねられている面が多く、手術者には熟練した技術
が要求されていた。
However, in the apparatus, images from multiple directions are displayed on a monitor in order to show a doctor a three-dimensional positional relationship between a medical instrument and a patient as a subject. indicate. Specifically, in accordance with the calculated coordinate position of the medical device, previously recorded image data in the front, lateral, and axial directions of the patient are respectively displayed on the monitor. However, it is not easy for an operator such as a surgeon to three-dimensionally understand the position of the medical device with respect to the target position by looking at such image data from multiple directions. Furthermore, whether or not treatment is possible during surgery depends on the experience of the surgeon,
Many aspects were left to intuition, and the surgeon required skilled skills.

【0005】[0005]

【発明が解決しようとする課題】本発明は、上記の課題
を解決するものであり、医療処置において、処置対象の
位置が容易に把握でき、医療処置を円滑に行うことがで
きる医療処置補助装置を提供することを目的とする。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems, and in a medical treatment, a medical treatment assisting device capable of easily grasping a position of a treatment target and smoothly performing a medical treatment. The purpose is to provide.

【0006】さらに、本発明の他の目的として、エネル
ギー処置具による医療処置を適切に行えるように制御す
る医療処置補助装置を提供することにある。
Another object of the present invention is to provide a medical treatment assisting device for controlling a medical treatment using an energy treatment tool so that the medical treatment can be appropriately performed.

【0007】[0007]

【課題を解決するための手段】そこで、本発明の医療処
置補助装置は、被検体の観察画像信号を得るための観察
部と少なくとも先端の位置を検出するための第1の位置
検出用手段とを備えた第1の挿入部を有する内視鏡と、
第2の挿入部を有し、第2の挿入部の挿入位置の検出を
するための第2の位置検出用手段を備えた第1の挿入具
と、第1および第2の位置検出用手段からの位置情報に
基づいて、内視鏡の先端と第2の挿入部の位置関係を求
める第1の演算手段と、観察画像信号に基いて得られる
内視鏡画像に、第1の演算手段の演算結果に基いて第2
の挿入部の挿入位置を画像として合成して表示出力する
合成手段とを備えている。
Therefore, a medical treatment assisting apparatus according to the present invention comprises an observation section for obtaining an observation image signal of a subject and at least a first position detection means for detecting a position of a tip. An endoscope having a first insertion portion provided with:
A first insertion tool having a second insertion portion and a second position detection means for detecting an insertion position of the second insertion portion; and first and second position detection means A first calculating means for obtaining a positional relationship between the tip of the endoscope and the second insertion portion based on the positional information from the first endoscope, and a first calculating means for adding an endoscope image obtained based on the observation image signal to the first calculating means. Based on the calculation result of
And a synthesizing means for synthesizing an image of the insertion position of the insertion portion as an image and outputting the image.

【0008】さらに、本発明の医療処置補助装置は、エ
ネルギー処置具を有する挿入部を有し、挿入部の挿入位
置の検出をするための位置検出用手段を備えた挿入具
と、予め設定された三次元データと、位置検出用手段か
らの位置情報に基いて、エネルギー処置具へのエネルギ
ー供給を制御する制御手段と有する。
Further, the medical treatment assisting device of the present invention has an insertion portion having an energy treatment device, and an insertion device provided with a position detecting means for detecting an insertion position of the insertion portion, and a preset insertion device. Control means for controlling energy supply to the energy treatment device based on the obtained three-dimensional data and position information from the position detection means.

【0009】[0009]

【発明の実施の形態】以下、図面を参照して本発明の実
施の形態を説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0010】図1から図4は、本発明の第一の実施の形
態を示す図である。
FIG. 1 to FIG. 4 are diagrams showing a first embodiment of the present invention.

【0011】図1は、本発明に係る医療処置補助装置を
用いて行われる手術の例を説明するための説明図であ
る。図2は、本発明に係る医療処置補助装置の一例を示
すブロック構成図である。図3及び図4は、上記の医療
処置補助装置のモニタに表示される画面表示例を示す図
である。
FIG. 1 is an explanatory diagram for explaining an example of an operation performed using the medical treatment assisting apparatus according to the present invention. FIG. 2 is a block diagram showing an example of the medical treatment assistance device according to the present invention. FIG. 3 and FIG. 4 are diagrams showing screen display examples displayed on the monitor of the medical treatment assisting device.

【0012】まず図1に基づき、医療処置補助装置を用
いて行われる医療処置である手術の例を説明する。
First, an example of an operation, which is a medical treatment performed using the medical treatment assistance device, will be described with reference to FIG.

【0013】図1は、被検体である患者が子宮摘出手術
を受けている例を示す図である。子宮摘出手術では、周
辺臓器を傷つけないように、臓器の位置を確認しながら
切除作業を行なう必要がある。
FIG. 1 is a diagram showing an example in which a patient as a subject is undergoing a hysterectomy operation. In a hysterectomy operation, it is necessary to perform a resection operation while confirming the position of the organ so as not to damage the surrounding organs.

【0014】この手術では、先端部が体腔内に挿入され
る内視鏡2と、内視鏡2と同一の内腔に挿入される2本
の鉗子3、4と、尿管に挿入される先端が二股に形成さ
れているプローブ5が用いられる。
In this operation, an endoscope 2 whose tip is inserted into a body cavity, two forceps 3 and 4 inserted into the same lumen as the endoscope 2, and a ureter. A probe 5 having a bifurcated tip is used.

【0015】手術者は、手術中、内視鏡2の観察部から
の手術部位の観察画像を見ながら、手術を行なう。内視
鏡2は、挿入部6の先端に固体撮像装置であるCCD
(Charge Coupled Device)素子
が設けられ、挿入部6の先端の観察部からの画像を撮像
する。内視鏡2は、ケーブル9により内視鏡画像処理装
置7に接続され、内視鏡画像処理装置7は、モニタ装置
8に接続されている。内視鏡2の撮像装置からの観察画
像信号のデータと後述するプローブ画像データが、中央
処理装置(以下、CPUという)を有する内視鏡画像処
理装置7により処理されてモニタ装置8上に画像が表示
される。なお、内視鏡は、先端にCCD素子を設けない
ファイバースコープ形式のものでもよい。
During the operation, the surgeon performs the operation while viewing the observation image of the operation site from the observation section of the endoscope 2. The endoscope 2 has a CCD which is a solid-state imaging device
A (Charge Coupled Device) element is provided to capture an image from the observation unit at the distal end of the insertion unit 6. The endoscope 2 is connected to an endoscope image processing device 7 by a cable 9, and the endoscope image processing device 7 is connected to a monitor device 8. Data of an observation image signal from an imaging device of the endoscope 2 and probe image data described later are processed by an endoscope image processing device 7 having a central processing unit (hereinafter, referred to as a CPU) and an image is displayed on a monitor device 8. Is displayed. The endoscope may be of a fiberscope type without a CCD element at the tip.

【0016】切除作業には、処置具として鋏鉗子が用い
られる。ここでは、二つの鉗子3、4が示されている。
In the resection operation, scissors forceps are used as a treatment tool. Here, two forceps 3, 4 are shown.

【0017】そして、内視鏡2、一つの鉗子3及びプロ
ーブ5には、それぞれの挿入部の先端位置もしくは挿入
部の形状を検出するための位置検出用センサ(図示せ
ず)がそれぞれに少なくとも1つ内蔵されている。な
お、鉗子4にも位置検出用センサを設けてもよいが、鉗
子3により切除作業を行なうので、鉗子3にのみ位置検
出用センサが設けられている。
The endoscope 2, one forceps 3 and the probe 5 each have at least a position detecting sensor (not shown) for detecting the tip position or the shape of the insertion portion. One is built-in. The forceps 4 may be provided with a position detection sensor. However, since the cutting operation is performed by the forceps 3, the position detection sensor is provided only on the forceps 3.

【0018】特に、プローブ5の挿入部10、11の位
置と形状をより正確に検出するには、その形状が把握で
きるように複数のセンサを、挿入部10、11の長さ方
向に沿って設けるのが好ましい。また、挿入部10、1
1のそれぞれの先端部に一つの位置検出用センサしか設
けなくても、挿入時の先端部の軌跡から、尿管の形状で
あるプローブの挿入部の形状を特定することもできる。
In particular, in order to more accurately detect the positions and shapes of the insertion portions 10 and 11 of the probe 5, a plurality of sensors are provided along the length direction of the insertion portions 10 and 11 so that the shapes can be grasped. It is preferred to provide. In addition, the insertion portions 10, 1
Even if only one position detection sensor is provided at each of the distal ends, the shape of the insertion portion of the probe, which is the shape of the ureter, can be specified from the trajectory of the distal end at the time of insertion.

【0019】内視鏡2の位置検出用センサの出力信号
は、ケーブル12を介して、CPUを含む演算装置13
に接続されている。ブローブ5の位置検出用センサの出
力信号は、プローブ5の線により演算装置13に接続さ
れる。鉗子3の位置検出用センサの出力信号は、ケーブ
ル14を介して、演算手段13に接続されている。
An output signal of the position detecting sensor of the endoscope 2 is transmitted via a cable 12 to an arithmetic unit 13 including a CPU.
It is connected to the. The output signal of the probe for detecting the position of the probe 5 is connected to the arithmetic unit 13 by the probe 5 line. The output signal of the position detecting sensor of the forceps 3 is connected to the calculating means 13 via the cable 14.

【0020】内視鏡2、鉗子3およびブローブ5の挿入
部10、11の各位置検出用センサの出力信号は、それ
ぞれの位置と互いの位置関係を算出する演算装置13に
接続されている。さらに、演算装置13は、ブローブ5
の挿入部10、11の各位置検出用センサの出力信号に
基づいて、挿入部10、11の形状を算出する。
The output signals of the position detecting sensors of the endoscope 2, forceps 3 and the insertion sections 10 and 11 of the probe 5 are connected to a calculation device 13 for calculating the respective positions and the mutual positional relationship. Further, the arithmetic unit 13 sets the probe 5
The shapes of the insertion sections 10 and 11 are calculated based on the output signals of the position detection sensors of the insertion sections 10 and 11.

【0021】演算装置13は、ケーブル15により、内
視鏡2により撮像された画像データを処理する内視鏡画
像処理装置7に接続され、算出された位置および形状デ
ータを内視鏡画像処理装置7へ供給する。
The arithmetic unit 13 is connected by a cable 15 to an endoscope image processing unit 7 for processing image data picked up by the endoscope 2 and converts the calculated position and shape data to an endoscope image processing unit. 7

【0022】各位置検出用センサは、図示しない場所に
設けられた磁場発生器により発生された磁場を検出す
る。演算装置13は、位置検出用センサで検出された多
方向の磁場信号に基づいて所定の演算処理を行なうこと
で、各位置検出用センサの3次元の座標位置(X,Y,
Z)を算出する。
Each position detecting sensor detects a magnetic field generated by a magnetic field generator provided at a location (not shown). The arithmetic unit 13 performs a predetermined arithmetic process based on the multi-directional magnetic field signals detected by the position detection sensors, so that the three-dimensional coordinate position (X, Y,
Z) is calculated.

【0023】なお、各位置を検出する手段の一例とし
て、磁場を利用した例で説明するが、その他の手段を利
用してもよい。
Although an example using a magnetic field will be described as an example of means for detecting each position, other means may be used.

【0024】また、外部に磁場発生器等を設けるのでは
なく、例えば内視鏡、鉗子、プローブ等の先端部に磁場
発生器等を設け、外部に設けられた検出用コイル等のセ
ンサで磁場を検出して、各先端部の位置を算出するよう
にしてもよい。第二および第三の実施の形態においても
同様である。従って、位置を検出したい対象に、磁場検
出器を設けてもよいし、磁場発生器を設けてもよい。
Instead of providing a magnetic field generator or the like outside, a magnetic field generator or the like is provided at the tip of an endoscope, forceps, probe, or the like, and a magnetic field is generated by a sensor such as a detection coil provided outside. May be detected to calculate the position of each tip. The same applies to the second and third embodiments. Therefore, a magnetic field detector may be provided for a target whose position is to be detected, or a magnetic field generator may be provided.

【0025】従って、以下、位置検出用センサあるいは
位置検出用のエネルギー発生器を、位置検出用手段と言
うが、以下の説明では、位置検出用センサの例で説明す
る。第二および第三の実施の形態においても同様であ
る。
Accordingly, hereinafter, the position detecting sensor or the position detecting energy generator will be referred to as a position detecting means, but in the following description, an example of the position detecting sensor will be described. The same applies to the second and third embodiments.

【0026】図2は、医療処置補助装置の構成例を示す
ブロック構成図である。
FIG. 2 is a block diagram showing a configuration example of the medical treatment assisting device.

【0027】2点鎖線で示した21は、図1に示した演
算装置である。22は、内視鏡の撮像装置の画像検出ユ
ニットである。23は、内視鏡の先端部に設けられた位
置検出用センサである。24は、プローブに設けられた
位置検出用センサであり、ここでは、一つのセンサしか
示していないが、上述したように形状をより正確に検出
するために複数設けてもよい。25は、鉗子の先端部に
設けられた位置検出用のセンサである。なお、これらの
位置検出用センサの出力信号は、図示しないアナログデ
ジタル変化器によってデジタルデータに変換されて後述
する各演算部へ与えられる。
Reference numeral 21 shown by a two-dot chain line is the arithmetic unit shown in FIG. Reference numeral 22 denotes an image detection unit of the imaging device of the endoscope. Reference numeral 23 denotes a position detection sensor provided at the distal end of the endoscope. Numeral 24 denotes a position detection sensor provided on the probe. Although only one sensor is shown here, a plurality of sensors may be provided to more accurately detect the shape as described above. Reference numeral 25 denotes a position detection sensor provided at the tip of the forceps. The output signals of these position detecting sensors are converted into digital data by an analog-to-digital converter (not shown) and provided to each of the arithmetic units described below.

【0028】演算装置21には、先端位置演算部26、
先端位置及び形状演算部27、先端位置演算部28、相
対位置演算部29、相対位置演算部30、そして表示形
式決定部31が含まれる。先端位置演算部26は、内視
鏡の先端部に設けられた位置検出用センサ23からの信
号を受けて先端位置を算出する。先端位置及び形状演算
部27は、プローブに設けられた位置検出用センサ24
からの信号を受けてプローブの先端位置の算出とプロー
ブの形状データを作成する。この形状データは、三次元
データである。先端位置演算部28は、鉗子の先端部に
設けられた位置検出用のセンサ25の信号を受けて先端
位置を算出する。
The calculating device 21 includes a tip position calculating section 26,
A tip position and shape calculation unit 27, a tip position calculation unit 28, a relative position calculation unit 29, a relative position calculation unit 30, and a display format determination unit 31 are included. The distal end position calculating unit 26 calculates a distal end position by receiving a signal from the position detecting sensor 23 provided at the distal end of the endoscope. The tip position and shape calculation unit 27 includes a position detection sensor 24 provided in the probe.
, The tip position of the probe is calculated, and the shape data of the probe is created. This shape data is three-dimensional data. The distal end position calculating section 28 receives the signal of the position detecting sensor 25 provided at the distal end of the forceps and calculates the distal end position.

【0029】相対位置演算部29は、先端位置演算部2
6と先端位置及び形状演算部27からの位置データと形
状データを受けて、内視鏡とプローブとの距離を算出す
る。相対位置演算部30は、先端位置及び形状演算部2
7と先端位置演算部28からの位置データと形状データ
を受けて、プローブと鉗子との距離を算出する。表示形
式決定部31は、相対位置演算部30からの距離データ
を受けて、算出されたプローブ10、11と鉗子3の相
対位置関係、すなわち距離に応じて、プローブ10、1
1の形状の表示形式を決定する。
The relative position calculator 29 is provided with a tip position calculator 2
6 and the position data and the shape data from the tip position and shape calculation unit 27, the distance between the endoscope and the probe is calculated. The relative position calculation unit 30 includes a tip position and shape calculation unit 2
7 and the position data and the shape data from the distal end position calculation unit 28, the distance between the probe and the forceps is calculated. The display format determination unit 31 receives the distance data from the relative position calculation unit 30 and, based on the calculated relative positional relationship between the probes 10 and 11 and the forceps 3, that is, the distance between the probes 10, 1
The display format of the shape 1 is determined.

【0030】各演算部において、位置を算出する方法
は、上述したように、図示しない場所に設けられた磁場
発生器により発生された磁場を、各位置検出用センサで
検出し、検出された多方向の磁場信号に基づいて所定の
演算処理を行なうことで、各位置検出用センサの三次元
の座標位置(X,Y,Z)が算出される。
As described above, in each arithmetic unit, the position is calculated by detecting the magnetic field generated by a magnetic field generator provided at a location (not shown) by each position detecting sensor and detecting the detected position. By performing a predetermined calculation process based on the magnetic field signal in the direction, the three-dimensional coordinate position (X, Y, Z) of each position detection sensor is calculated.

【0031】なお、プローブの形状を算出するには、プ
ローブを傷を付けないようにしたい器官に挿入したとき
のプローブ先端位置の軌跡データと、予めストアしたプ
ローブの形態(太さ等)のデータに基づいて、座標補完
演算および合成演算をしてプローブの形状データを構築
することができる。あるいは、プローブの先端だけでな
く、その途中にも位置検出用センサを複数個も設け、座
標補完演算により形状を算出して、形状データを構築し
てもよい。
In order to calculate the shape of the probe, the data of the trajectory of the probe tip position when the probe is inserted into an organ to be protected from damage and the data of the form (thickness etc.) of the probe stored in advance are used. Based on the above, it is possible to construct the shape data of the probe by performing the coordinate complement operation and the synthesis operation. Alternatively, a plurality of position detection sensors may be provided not only at the tip of the probe but also in the middle of the probe, and the shape may be calculated by coordinate complement calculation to construct the shape data.

【0032】相対位置演算部29および相対位置演算部
30は、各先端位置演算部の演算結果である先端の座標
位置データと、先端位置及び形状演算部27からの位置
データと形状データを受けて、相対位置関係、すなわち
相互間の距離を演算して求める。距離は、三次元の座標
データに基づき演算される。
The relative position calculator 29 and the relative position calculator 30 receive the coordinate position data of the tip, which is the calculation result of each tip position calculator, and the position data and shape data from the tip position and shape calculator 27. , The relative positional relationship, that is, the distance between them is calculated. The distance is calculated based on three-dimensional coordinate data.

【0033】表示形式決定部31は、演算されたプロー
ブ5の挿入部10、11と鉗子3の相対位置関係の演算
結果に応じて、プローブ10、11の形状の表示形式を
決定する。相対位置演算部30は、挿入部10、11の
形状データの中で、鉗子3に最も近い点の座標データを
用いて、距離を演算し、その距離データを表示形式決定
部31へ供給する。また、表示形式とは、例えば、実
線、点線等の線種、線の色、太さ等をいい、後述するよ
うに算出された相対位置関係によって、表示用モニタ8
に表示されるプローブをどのように表示するかを決定す
るものである。表示形式決定部31には、表示形式を変
更するか否かを決定するための、距離の閾値が予め設定
されている。そして、相対位置演算部30からの距離デ
ータとその閾値を比較し、その比較結果に基づいて表示
形式データを出力する。
The display format determining section 31 determines the display format of the probes 10 and 11 according to the calculation result of the calculated relative positional relationship between the insertion sections 10 and 11 of the probe 5 and the forceps 3. The relative position calculation unit 30 calculates the distance using the coordinate data of the point closest to the forceps 3 among the shape data of the insertion units 10 and 11, and supplies the distance data to the display format determination unit 31. The display format refers to, for example, a line type such as a solid line or a dotted line, a line color, a thickness, and the like, and is calculated based on a relative positional relationship calculated as described later.
Is to determine how to display the probe displayed in. In the display format determination unit 31, a distance threshold for determining whether to change the display format is set in advance. Then, the distance data from the relative position calculator 30 is compared with the threshold value, and display format data is output based on the comparison result.

【0034】32は、図1における内視鏡画像処理装置
である。内視鏡画像処理装置32は、画像合成部33と
プローブ形状処理部34を含む。画像合成部33は、内
視鏡からの画像データに相対位置演算部29からのプロ
ーブの形状データを、モニタ上で重畳させた合成画像を
生成するための演算処理部である。画面合成部33は、
相対位置演算部29で演算された撮像装置であるCCD
カメラのある内視鏡の先端部の位置データと、プローブ
の形状データとに基づいて、CCDカメラの画像データ
におけるプローブの存在する位置を算出し、CCDカメ
ラの画像に、その算出されたデータ中の位置に形状デー
タに基づくプローブ像を重畳して合成する。画像合成部
33で生成された画像データは、内視鏡の画像データ
と、生成されたプローブの画像データを含み、プローブ
形状処理部34へ供給される。
Reference numeral 32 denotes the endoscope image processing apparatus in FIG. The endoscope image processing device 32 includes an image synthesis unit 33 and a probe shape processing unit 34. The image synthesizing unit 33 is an arithmetic processing unit for generating a synthetic image in which the shape data of the probe from the relative position calculating unit 29 is superimposed on image data from the endoscope on a monitor. The screen composition unit 33
CCD which is an imaging device calculated by the relative position calculation unit 29
The position where the probe exists in the image data of the CCD camera is calculated based on the position data of the distal end portion of the endoscope with the camera and the shape data of the probe, and the position of the calculated data in the CCD camera image is calculated. Are superimposed on the probe image based on the shape data and combined. The image data generated by the image synthesis unit 33 includes the image data of the endoscope and the generated image data of the probe, and is supplied to the probe shape processing unit 34.

【0035】画像合成部33では、三次元データである
プローブ形状を、内視鏡画像平面(二次元)上に投影し
た位置に表示する。そのため、画像合成部33では、内
視鏡先端部に位置検出用センサを複数設け、内視鏡画像
の視点位置と、方向すなわち視線方向からの内視鏡画像
平面を仮定する。そして、その仮定した画像平面上に、
プローブ形状を投影することによって、画像合成を行
う。なお、内視鏡の先端部に設けた位置検出用センサが
一つであっても、予め内視鏡の挿入方向と位置が決めら
れていれば、画像合成をすることはできる。
The image synthesizing section 33 displays the probe shape, which is three-dimensional data, at the position projected on the endoscopic image plane (two-dimensional). Therefore, the image synthesizing unit 33 is provided with a plurality of position detection sensors at the end of the endoscope, and assumes a viewpoint position of the endoscope image and an endoscope image plane from the direction, that is, the line of sight. Then, on the assumed image plane,
Image synthesis is performed by projecting the probe shape. Note that even if there is only one position detection sensor provided at the distal end of the endoscope, images can be synthesized if the insertion direction and position of the endoscope are determined in advance.

【0036】プローブ形状処理部34は、表示形式決定
部31で決定された表示形式データに基づいて、画像合
成部33からのプローブの画像データを処理し、内視鏡
の画像データと合成して、モニタへの表示データを出力
する。
The probe shape processing unit 34 processes the probe image data from the image synthesizing unit 33 based on the display format data determined by the display format determining unit 31, and synthesizes the image data with the endoscope image data. And output display data to the monitor.

【0037】次に、手術を行う際の画像の表示例で、上
記医療処理補助装置の動作を説明する。 図3及び図4
は、上記の医療処置補助装置のモニタに表示される画面
表示例を示す図である。
Next, the operation of the medical processing assisting device will be described with reference to an example of display of an image when performing an operation. 3 and 4
FIG. 7 is a diagram showing a screen display example displayed on a monitor of the medical treatment assisting device.

【0038】図3は、モニタ8の画面41上の内視鏡画
像42は、子宮摘出手術の際、尿管に挿入されたプロー
ブ10、11の形状が点線43、44で表示されてい
る。45と46は、鉗子である。47は、子宮であり、
48と49は卵巣である。
FIG. 3 shows an endoscopic image 42 on a screen 41 of the monitor 8 in which the shapes of the probes 10 and 11 inserted into the ureter at the time of a hysterectomy operation are indicated by dotted lines 43 and 44. 45 and 46 are forceps. 47 is a uterus,
48 and 49 are ovaries.

【0039】手術者は、モニタ8の画面41に映し出さ
れる内視鏡画像42上の、手術の対象である子宮47
と、手術者が操作する鉗子45、46を見ながら手術を
行う。手術者は、手術対象以外の尿管を傷つけたり、誤
って切断しないように注意しなければならない。画像4
2には、演算装置21で演算され、内視鏡画像処理装置
32で算出されたプローブ形状画像が点線43、44で
表示される。
The operator performs a surgical operation on the uterus 47 on the endoscope image 42 displayed on the screen 41 of the monitor 8.
The operation is performed while viewing the forceps 45 and 46 operated by the operator. The surgeon must be careful not to damage or accidentally cut the ureter other than the one to be operated on. Image 4
In 2, probe shape images calculated by the arithmetic device 21 and calculated by the endoscope image processing device 32 are displayed by dotted lines 43 and 44.

【0040】このように、プローブ10、11の形状
が、内視鏡画像に重畳して表示されるので、尿管の位置
を改めて確認する必要がない。従って、手術もスムーズ
に行われる。
As described above, since the shapes of the probes 10 and 11 are displayed so as to be superimposed on the endoscopic image, it is not necessary to confirm the position of the ureter again. Therefore, the operation is performed smoothly.

【0041】次に、図4は、図3の状態から手術者が鉗
子46を動かした結果、変化した画像を示すものであ
る。鉗子46が動かされて、位置検出センサが設けられ
た鉗子46がプローブの挿入された尿管44に予め設定
された距離以上接近すると、上述した表示形式決定部3
1が表示形式を変更する。その結果、プローブ形状処理
部34で、画像合成部33で生成された画像の内、プロ
ーブが挿入された尿管44の形状を点線表示から実線表
示に変更された。例えば、表示形式決定部31では、切
除等の処理を行なう鉗子46の先端から傷を付けたくな
い尿管44までの距離が、5mm[ミリメートル]以内
に接近したら、表示形式を実線に変更するように予め設
定しておく。すると、相対位置演算部30で距離が演算
されて、鉗子とプローブの距離が、その設定された5
[mm]以内になると、表示形式決定部31は、尿管4
4の表示を、それまで図3に示すように点線で表示され
ていたのを、図4に示すように実線に変更するような表
示形式データを出力する。
FIG. 4 shows an image changed as a result of the operator moving the forceps 46 from the state shown in FIG. When the forceps 46 are moved and the forceps 46 provided with the position detection sensor approach the ureter 44 into which the probe has been inserted by a predetermined distance or more, the above-described display format determination unit 3
1 changes the display format. As a result, in the probe shape processing unit 34, the shape of the ureter 44 into which the probe was inserted was changed from the dotted line display to the solid line display in the image generated by the image synthesis unit 33. For example, the display format determination unit 31 changes the display format to a solid line when the distance from the tip of the forceps 46 for performing a process such as excision to the ureter 44 that does not want to be damaged approaches within 5 mm [mm]. Is set in advance. Then, the distance is calculated by the relative position calculation unit 30, and the distance between the forceps and the probe is set to the set value.
[Mm], the display format determination unit 31
The display format data is output in such a manner that the display of No. 4 is changed to a solid line as shown in FIG. 4 instead of the dotted line as shown in FIG.

【0042】よって、手術者は、鉗子46が尿管に近い
ことがわかり、注意して鉗子46を扱わなければならな
いことがわかる。また、鉗子46が予め定めた距離以上
離れると、尿管の形状は、実線から点線に変更される。
Thus, the operator knows that the forceps 46 are close to the ureter, and knows that the forceps 46 must be handled with care. Further, when the forceps 46 are separated by more than a predetermined distance, the shape of the ureter is changed from a solid line to a dotted line.

【0043】このように、位置検出用手段を用いて求め
た位置情報に基づいて、プローブが挿入された手術対象
の器官と、手術器具である鉗子との距離を求め、その距
離データに応じて、画面上の表示が変更されるので、手
術者は、手術器具が注意すべき距離にあるのか否かが極
めて容易に把握できる。
As described above, based on the position information obtained by using the position detecting means, the distance between the organ to be operated into which the probe is inserted and the forceps, which is a surgical instrument, is obtained. Since the display on the screen is changed, the surgeon can very easily know whether or not the surgical instrument is at a distance to which attention should be paid.

【0044】なお、以上の例では、表示形式を相対関係
に応じて線種を変更するものであるが、これに限られる
ものではなく、相対関係に応じて、線の色もしくは太さ
を変更させても良い。
In the above example, the display format is changed according to the relative relationship. However, the present invention is not limited to this. The color or thickness of the line is changed according to the relative relationship. You may let it.

【0045】また、他の変形例として、画像上の表示は
なく、相対関係に応じて別途設けたスピーカー(図示せ
ず)からの音を変化(音程の高低、音量の大小等)させ
て、視聴覚的に、手術者に通知、告知、注意喚起をする
ようにしても良い。
As another modified example, there is no display on the image, and the sound from a separately provided speaker (not shown) is changed (the pitch, the volume, etc.) according to the relative relationship. The operator may be notified, notified, or alerted audiovisually.

【0046】以上のように、単なる内視鏡画像には表れ
ない、腹膜に隠れている臓器等の位置が内視鏡画像と合
成されて表示され、さらに接近したことも容易に確認で
きるため、従来のように他の臓器等を損傷させないよう
改めてその位置を確認する必要がなく、手術者は、手術
を短時間で円滑に行うことができる。
As described above, the position of an organ or the like hidden in the peritoneum, which does not appear in a mere endoscopic image, is synthesized with the endoscopic image and displayed, and it can be easily confirmed that the user has approached further. It is not necessary to confirm the position again so as not to damage other organs or the like as in the related art, and the operator can perform the operation in a short time and smoothly.

【0047】さらに言えば、対象臓器等と手術器具の位
置関係が3次元的に捉えられるため、相互の位置関係が
より正確に認識され得るので、手術者は、一層手術を円
滑に行うことができる。
Furthermore, since the positional relationship between the target organ and the like and the surgical instrument can be grasped three-dimensionally, the mutual positional relationship can be recognized more accurately, so that the operator can perform the operation more smoothly. it can.

【0048】次に第二の実施の形態について説明する。Next, a second embodiment will be described.

【0049】第二の実施の形態は、内視鏡と経膣プロー
ブを用いて、被検体の子宮を経膣的に摘出する場合に、
本発明に係る医療処置補助装置を適用した場合の例であ
る。図5と図6により、第二の実施の形態を説明する。
In the second embodiment, when the uterus of the subject is removed transvaginally using an endoscope and a transvaginal probe,
It is an example when the medical treatment assistance device according to the present invention is applied. A second embodiment will be described with reference to FIGS.

【0050】図5は、本発明に係る医療処置補助装置を
用いて行われる子宮摘出手術の例を説明するための説明
図である。図5において、51は内視鏡の挿入部であ
る。52と53は鉗子である。54は手術器具である経
膣プローブである。55は子宮で、56は膣で、57は
膣断端である。手術者は、内視鏡51の先端の観察部に
設けられた撮像装置による画像を、図1に示すモニタ8
で見ながら手術を行なう。
FIG. 5 is an explanatory diagram for explaining an example of a hysterectomy operation performed using the medical treatment assisting apparatus according to the present invention. In FIG. 5, reference numeral 51 denotes an endoscope insertion portion. 52 and 53 are forceps. A transvaginal probe 54 is a surgical instrument. 55 is the uterus, 56 is the vagina, and 57 is the vaginal stump. The operator uses the monitor 8 shown in FIG.
Perform surgery while looking at.

【0051】第一の実施の形態との相違は、図2におけ
るセンサ24が、経膣プローブ54の先端部に設けら
れ、かつその経膣プローブ54の断端部に円周上に複数
の位置検出センサが設けられている点である。そして、
位置演算及び形状演算部27において、複数の位置検出
用センサからの信号に基づいて、経膣プローブ54の断
端の位置と形状を演算して求める点が異なる。その他の
点は同じであり、内視鏡の位置と、鉗子の位置の算出さ
れて、相対位置関係から所定の距離以上に接近すると、
表示形式が変更される。ここでは、表示形式が変更され
るのは、経膣プローブの断端形状の表示形式である。な
お、第一の実施の形態と同様に、視聴覚的に、手術者に
通知、告知、注意喚起をするようにしてもよい。
The difference from the first embodiment is that the sensor 24 shown in FIG. 2 is provided at the distal end of the transvaginal probe 54, and a plurality of positions are provided on the cut end of the transvaginal probe 54 on the circumference. The point is that a detection sensor is provided. And
The difference is that the position calculation and shape calculation unit 27 calculates and calculates the position and shape of the stump of the transvaginal probe 54 based on signals from a plurality of position detection sensors. Other points are the same, the position of the endoscope and the position of the forceps are calculated, and when approaching a predetermined distance or more from the relative positional relationship,
The display format is changed. Here, the display format is changed in the display format of the stump shape of the transvaginal probe. As in the first embodiment, the operator may be notified, notified, and alerted audiovisually.

【0052】図6は、モニタ8に表示された内視鏡画像
である。
FIG. 6 is an endoscope image displayed on the monitor 8.

【0053】モニタ8の画面61上の内視鏡画像62に
は、子宮摘出手術の際、膣断端に当てられた経膣プロー
ブ54の断端の形状が点線63で重畳表示されている。
64と65は、鉗子である。66は、子宮であり、67
と68は卵巣である。
In the endoscopic image 62 on the screen 61 of the monitor 8, the shape of the stump of the transvaginal probe 54 applied to the stump of the vagina during the operation of hysterectomy is superimposed and indicated by a dotted line 63.
64 and 65 are forceps. 66 is a uterus, 67
And 68 are ovaries.

【0054】手術者は、手術中、モニタ8の画面61に
映し出される内視鏡画像62上の、手術の対象である子
宮66と、手術者が操作する鉗子64、65を見ながら
手術を行う。子宮を経膣的に摘出する際には、内視鏡画
像上に表示される経膣プローブ54の断端像に沿って、
円状切開を行い子宮が摘出される。このとき、手術者
は、内視鏡ではみることができない経膣プローブ54の
断端像が、演算装置21で断端プローブ54の位置と形
状が演算され、内視鏡画像処理装置32で合成されたプ
ローブ形状画像が点線63で表示される。従って、手術
者は、腹腔側から膣断端の位置と形状を特定することが
できる。
During the operation, the operator performs the operation while viewing the uterus 66 to be operated and the forceps 64 and 65 operated by the operator on the endoscope image 62 displayed on the screen 61 of the monitor 8. . When transvaginally removing the uterus, along the stump image of the transvaginal probe 54 displayed on the endoscopic image,
A circular incision is made and the uterus is removed. At this time, the operator calculates the position and the shape of the stump probe 54 in the endoscope image processing device 32 by calculating the stump image of the transvaginal probe 54 that cannot be seen with the endoscope. The displayed probe shape image is displayed by a dotted line 63. Therefore, the operator can specify the position and shape of the vaginal stump from the abdominal cavity side.

【0055】演算装置21において、位置演算及び形状
演算部27は、図2におけるセンサ24の出力データに
基づいて、経膣プローブ54の断端の位置と形状を演算
して求める。さらに、相対位置演算部30によって、鉗
子64、65と断端プローブ54の距離が演算され、表
示形式決定部31において、その距離が予め設定された
所定の値よりも小さいときは、膣断端の表示形式を点線
から実線にする等して表示形式を変更する。よって、鉗
子から膣断端部までの距離が、所定の距離以内になる
と、表示形式が変更されるので、手術者は、膣断端と鉗
子との位置関係が把握でき、手術を容易に行うことがで
きる。
In the calculation device 21, the position calculation and shape calculation unit 27 calculates and calculates the position and shape of the stump of the transvaginal probe 54 based on the output data of the sensor 24 in FIG. Further, the distance between the forceps 64, 65 and the stump probe 54 is calculated by the relative position calculation unit 30, and when the distance is smaller than a predetermined value in the display format determination unit 31, the vaginal stump is determined. Is changed from a dotted line to a solid line. Therefore, when the distance from the forceps to the vaginal stump is within a predetermined distance, the display format is changed, so that the operator can grasp the positional relationship between the vagina stump and the forceps, and easily perform an operation. be able to.

【0056】従って、子宮を摘出するための膣断端部の
切開部を容易に特定できるため、手術が円滑かつ短時間
で行なうことができる。
Therefore, since the incision at the vaginal stump for removing the uterus can be easily specified, the operation can be performed smoothly and in a short time.

【0057】以上のように、位置検出用手段を用いて求
めた位置情報に基いて、単なる内視鏡画像には表れない
器具の位置と形状が内視鏡画像と合成されて表示され、
さらに接近したことも容易に確認できるため、従来のよ
うに改めてその器具の位置を確認する必要がなく、手術
者は、手術を短時間で円滑に行うことができる。
As described above, based on the position information obtained by using the position detecting means, the position and the shape of the appliance which does not appear in the mere endoscope image are synthesized with the endoscope image and displayed.
Further, since the approach can be easily confirmed, it is not necessary to confirm the position of the device again as in the related art, and the operator can perform the operation in a short time and smoothly.

【0058】次に、第三の実施の形態について説明す
る。
Next, a third embodiment will be described.

【0059】図7を用いて、第三の実施の形態を説明す
る。ここでは、被検体の患者体内の組織を剥離あるいは
切除する手術の例である。
The third embodiment will be described with reference to FIG. Here, an example of an operation of exfoliating or resecting a tissue in a patient body of a subject is described.

【0060】図7は、本発明に係る医療処置補助装置を
用いて行われる手術の例を説明するための説明図であ
る。図7において、71は、本発明に係る医療処置補助
装置である。72は、患者体内に挿入される内視鏡であ
り、その挿入部73の先端には位置検出用センサが設け
られている。74は、切除を行なう処置具としての鉗子
であり、その先端にも同様に位置検出用センサが設けら
れている。さらに、この鉗子の先端には、エネルギー処
置具が設けられ、エネルギー供給源である電源部75か
らエネルギー供給ケーブル76により電気エネルギーが
供給される。鉗子74を患者体内に挿入することによっ
て、患者体内の組織の剥離、切除が行なわれる。77
は、電源部75に接続されて電気エネルギーの出力の要
否を設定するためのスイッチである。このスイッチ77
は、手術者によってオン、オフされる。
FIG. 7 is an explanatory diagram for explaining an example of an operation performed using the medical treatment assisting apparatus according to the present invention. In FIG. 7, reference numeral 71 denotes a medical treatment assisting device according to the present invention. Reference numeral 72 denotes an endoscope to be inserted into a patient's body, and a position detecting sensor is provided at a distal end of the insertion portion 73. Numeral 74 denotes forceps as a treatment tool for performing resection, and a position detecting sensor is similarly provided at the tip thereof. Further, an energy treatment tool is provided at the tip of the forceps, and electric energy is supplied from a power supply unit 75 as an energy supply source via an energy supply cable 76. By inserting the forceps 74 into the patient, the tissue in the patient is separated and excised. 77
Is a switch connected to the power supply unit 75 for setting whether or not to output electric energy. This switch 77
Is turned on and off by the surgeon.

【0061】78は、演算装置である。演算装置78に
は、手術前に事前に患者の手術部位である病変部の三次
元画像データがストアされている。三次元画像データと
しては、超音波、磁気共鳴、CT等の断層撮影技術を用
いて得られる三次元画像データである。
Reference numeral 78 denotes an arithmetic unit. The arithmetic unit 78 stores three-dimensional image data of a lesion, which is a surgical site of a patient, before surgery. The three-dimensional image data is three-dimensional image data obtained by using a tomography technique such as ultrasound, magnetic resonance, and CT.

【0062】また、演算装置78は、鉗子74の先端に
設けられた位置検出用センサの出力信号が信号線79を
介して入力されて、鉗子74の先端部の位置を演算す
る。さらに、演算装置78は、さらに、電源部75へ電
気エネルギーの出力を制御する制御信号を、信号線80
を介して供給する。81は、内視鏡表示装置であり、内
視鏡72からの画像信号を信号線82を介して受け、モ
ニタ装置83の画面上に画像を表示する。
The arithmetic unit 78 receives the output signal of the position detecting sensor provided at the distal end of the forceps 74 via a signal line 79, and calculates the position of the distal end of the forceps 74. Further, the arithmetic unit 78 further transmits a control signal for controlling the output of electric energy to the power supply unit 75 to a signal line 80.
Feed through. An endoscope display device 81 receives an image signal from the endoscope 72 via a signal line 82 and displays an image on a screen of a monitor device 83.

【0063】次に、患者体内の組織の剥離、切除が行な
われる際、本発明の医療処置補助装置がどのように利用
されるかを、乳腺部分の切除の例で説明する。
Next, how the medical treatment assisting device of the present invention is used when exfoliating and resecting tissue in a patient will be described with reference to an example of resection of a mammary gland.

【0064】早期ガンの発見により、乳腺部分の切除が
行われる場合、いわゆるサージカルマージンに相当する
部分を含めて切除が行なわれる。一般に、悪性腫瘍を切
除する際、取り残しがないように、悪性部分の周りの正
常部分まで余裕をもって切除が行なわれる。サージカル
マージンは、このような余裕範囲を指す。従来、このサ
ージカルマージンの境界部分に、色素を注入してマーキ
ングし、手術者は、そのマーキングに沿って切除を行な
っていた。しかし、色素の拡散等により、サージカルマ
ージンに沿ってきれいに切除が行なわれない場合があっ
た。そこで、本実施の形態では、サージカルマージンに
沿って切除が適切に行なえる方法を説明する。
When the mammary gland portion is resected due to the discovery of an early cancer, the resection is performed including a portion corresponding to a so-called surgical margin. In general, when a malignant tumor is resected, the resection is performed with a margin to a normal part around the malignant part so that there is no leftover. The surgical margin indicates such a margin range. Conventionally, the surgical margin has been marked by injecting a dye into the boundary portion of the surgical margin, and the surgeon has performed resection along the marking. However, the excision may not be performed clearly along the surgical margin due to the diffusion of the dye. Therefore, in the present embodiment, a method for appropriately performing excision along a surgical margin will be described.

【0065】上述したように、演算装置78には、手術
前に例えばCTスキャナで撮影された、患者の病変部の
三次元画像データがストアされている。
As described above, the arithmetic unit 78 stores three-dimensional image data of a lesioned part of a patient, which is photographed by a CT scanner before an operation.

【0066】三次元画像データは、演算装置78に記憶
され、病変部の位置の算出と三次元モデルが構築され
る。具体的には、病変部の位置の三次元データ(X,
Y,Z)の算出と、その算出データに基づいて三次元モ
デルが求められる。この構築された三次元モデルにサー
ジカルマージンを加えた切除範囲の三次元モデルが、さ
らに構築される。
The three-dimensional image data is stored in the arithmetic unit 78 to calculate the position of the lesion and construct a three-dimensional model. Specifically, three-dimensional data (X,
Y, Z) and a three-dimensional model is obtained based on the calculated data. A three-dimensional model of an ablation range obtained by adding a surgical margin to the constructed three-dimensional model is further constructed.

【0067】図8は、サージカルマージンと切除の関係
を説明するための説明図である。図8は、病変部91の
切除の際に、図においてYZ平面においては、病変部9
1からD[mm]の余裕を持って、X方向には、上下に
L[mm]の余裕を持ってサージカルマージンとして切
除する場合を示す。よって、点線92で示した範囲が、
サージカルマージンである。鉗子の先端のエネルギー処
置部93は、サージカルマージンの内側で切除してしま
うと、適切な切除がされないことになる。
FIG. 8 is an explanatory diagram for explaining the relationship between the surgical margin and the cutting. FIG. 8 is a view showing a state in which a lesion 9 is cut on the YZ plane in the figure when the lesion 91 is resected.
A case is shown in which a margin from 1 to D [mm] and a surgical margin with a margin of L [mm] up and down in the X direction are cut off. Therefore, the range shown by the dotted line 92 is
It is a surgical margin. If the energy treatment section 93 at the tip of the forceps is cut inside the surgical margin, it will not be cut properly.

【0068】図9と図10は、処置具とサージカルマー
ジンの位置関係を説明するための説明図である。
FIGS. 9 and 10 are explanatory views for explaining the positional relationship between the treatment tool and the surgical margin.

【0069】図9は、処置具93が、サージカルマージ
ンの範囲の外側にある場合を示す。図10は、処置具9
3が、サージカルマージンの範囲の内側に入った場合を
示す。手術者は、モニタ装置83の画像を見ながら、処
置具93により、切除手術を行なうが、図9の状態で、
処置具のスイッチを入れると、サージカルマージンを含
めて切除をすることができる。しかし、図10の状態
で、処置具のスイッチを入れて切除しようとすると、サ
ージカルマージンの範囲内で切除されるため、予定して
いたサージカルマージンを含めた範囲を完全に切除でき
ないことになってしまう。
FIG. 9 shows a case where the treatment tool 93 is outside the range of the surgical margin. FIG.
3 shows a case in which the value falls within the range of the surgical margin. The operator performs an excision operation with the treatment tool 93 while watching the image on the monitor device 83. In the state of FIG.
When the treatment tool is turned on, resection can be performed including the surgical margin. However, in the state of FIG. 10, when the treatment tool is turned on and cut is performed, the cut is performed within the range of the surgical margin. Therefore, the range including the planned surgical margin cannot be completely cut. I will.

【0070】そこで、演算装置78において、手術具へ
のエネルギー出力の制御処理を行なう。図11は、その
エネルギー出力制御の処理の流れを示すフローチャート
である。
Therefore, in the arithmetic unit 78, control processing of energy output to the surgical instrument is performed. FIG. 11 is a flowchart showing the flow of the energy output control process.

【0071】まず、ステップ(以下、Sと略す。)10
1において、手術者により手術具93へのエネルギー出
力をすべき旨の指示があるかどうかを、スイッチ(S
W)77の状態により判定する。S101でNOであれ
ば、スイッチ77はオフ状態なので、何もしない。スイ
ッチ77が手術者によりオンされると、S101でYE
Sとなり、次に、手術具93がサージカルマージン内に
あるかどうかを判定する(S102)。サージカルマー
ジン内に手術具があれば、S102でYESとなって、
エネルギー出力を停止する(S103)。S102でN
Oの場合は、サージカルマージン内にないので手術者の
指示に従って、エネルギー出力を出す(S104)。
First, step (hereinafter abbreviated as S) 10
In step 1, the switch (S) determines whether or not the operator has issued an instruction to output energy to the surgical instrument 93.
W) Judgment is made based on the state of 77. If NO in S101, the switch 77 is in the off state, and nothing is performed. When the switch 77 is turned on by the operator, YE is determined in S101.
The result is S, and it is determined whether the surgical tool 93 is within the surgical margin (S102). If there is a surgical tool within the surgical margin, YES is determined in S102,
The energy output is stopped (S103). N in S102
In the case of O, since it is not within the surgical margin, an energy output is output according to the operator's instruction (S104).

【0072】以上のように、演算装置78は、エネルギ
ー処置具93の先端位置と、予めストアされた画像デー
タに基づいて構築された3次元モデルデータとから、切
除してはいけない範囲では切除手術をしようとしても、
エネルギーが出力されない。
As described above, the arithmetic unit 78 performs an excision operation in a range where excision should not be performed from the tip position of the energy treatment instrument 93 and the three-dimensional model data constructed based on the image data stored in advance. Try to
No energy is output.

【0073】なお、以上の説明では、処置具のスイッチ
のオン状態になったとき、切除範囲内か否かの判断の下
で、エネルギーの出力制御を行なうものであったが、処
置具の先端位置が切除範囲内(図10)と切除範囲外
(図9)である場合は出力SW25の状態に関わらずエ
ネルギーの出力を停止し、サージカルマージンの境界付
近でのみ、エネルギーを処置具へ供給するようにしても
よい。
In the above description, when the switch of the treatment tool is turned on, the energy output is controlled based on the judgment as to whether or not it is within the resection range. When the position is within the ablation range (FIG. 10) and outside the ablation range (FIG. 9), the output of energy is stopped irrespective of the state of the output SW 25, and energy is supplied to the treatment tool only near the boundary of the surgical margin. You may do so.

【0074】従って、手術者が、内視鏡の観察部からの
画像をみながら手術を行う際、処置具が切除範囲に到達
したことを確実に術者が認識することによって、サージ
カルマージンが確保され、取り残しを確実に避けること
ができる。
Therefore, when the surgeon performs an operation while looking at the image from the observation section of the endoscope, the surgeon can ensure the surgical margin by reliably recognizing that the treatment tool has reached the resection range. It is possible to surely avoid the leftover.

【0075】また、図7において、演算装置78から内
視鏡画像処理装置81へ三次元位置データを信号線83
により供給し、モニタ81上にサージカルマージンと処
置具の位置関係がわかるような表示を合わせて行うよう
にしてもよい。
In FIG. 7, the three-dimensional position data is transmitted from the arithmetic unit 78 to the endoscope image processing unit 81 via a signal line 83.
May be displayed on the monitor 81 such that the positional relationship between the surgical margin and the treatment tool can be understood.

【0076】例えば、図12は、医療処置補助装置のモ
ニタに表示される画面表示例を示す。図12に示すよう
に、モニタ装置83の画面111上に映し出される内視
鏡画像112には、鉗子113の画像が表示される。ま
た、画面111の右側上下には、小さな表示画像11
4、115が表れている。その表示画像114と115
には、演算装置78からの、病変部、サージカルマージ
ンおよび鉗子の位置関係が表示されている。右上の画像
には、水平方向(上述の例では、Z軸方向)からみたと
きの、これら3つの位置関係が示されている。118は
病変部、120はサージカルマージン、そして116は
鉗子の位置を示している。右下の画像には、垂直方向
(上述の例では、X軸方向)からみたときの、これら3
つの位置関係が示されている。119は病変部、121
はサージカルマージン、そして117は鉗子の位置を示
している。
For example, FIG. 12 shows a screen display example displayed on the monitor of the medical treatment assisting device. As shown in FIG. 12, an image of the forceps 113 is displayed on the endoscope image 112 projected on the screen 111 of the monitor device 83. In addition, a small display image 11
4, 115 appear. The display images 114 and 115
Shows the positional relationship between the lesion, the surgical margin, and the forceps from the arithmetic unit 78. The upper right image shows the three positional relationships when viewed from the horizontal direction (the Z-axis direction in the above example). Reference numeral 118 denotes a lesion, 120 denotes a surgical margin, and 116 denotes a position of a forceps. The lower right image includes these three images when viewed from the vertical direction (the X-axis direction in the above example).
Two positional relationships are shown. 119 is a lesion, 121
Indicates a surgical margin, and 117 indicates the position of the forceps.

【0077】なお、114,115の表示画面に、単に
鉗子とサージカルマージンまでの距離を合わせてあるい
は単独で表示するようにしてもよい。さらに、距離に応
じて、表示画面の特定箇所の色を変更したり、音の高低
や音量を変化させるなど、視聴覚的な出力して、手術者
に通知、告知、注意喚起をするようにしてもよい。
It should be noted that the distance between the forceps and the surgical margin may be simply displayed on the display screens 114 and 115 together or independently. Furthermore, according to the distance, change the color of a specific part of the display screen, change the pitch and volume of the sound, etc., and output audiovisually to notify, notify, and alert the surgeon Is also good.

【0078】従って、手術者は、内視鏡画像112と、
位置検出用手段によって求められた位置情報に基いて、
サージカルマージンおよび病変部の位置と、処置具との
位置関係をこれらの2つの表示画像を見て確認しなが
ら、切除作業をすることができ、手術をスムーズに行う
ことができる。
Therefore, the surgeon can obtain the endoscope image 112 and
Based on the position information obtained by the position detecting means,
The resection operation can be performed while confirming the positional relationship between the surgical margin and the position of the lesion and the treatment tool by looking at these two display images, and the operation can be performed smoothly.

【0079】次に、第四の実施の形態につき説明する。Next, a fourth embodiment will be described.

【0080】第四の実施の形態は、一部が欠損した骨の
欠損部を、人口骨で補充するための人口骨の加工に関す
るものである。
The fourth embodiment relates to the processing of artificial bone to replace a partially defective bone with a bone.

【0081】従来、患者の骨が一部欠損した場合、その
欠損部に人口骨を補充することが行なわれている。補充
する人口骨は、欠損部の形状に応じた加工がされるが、
その加工には精度が要求されるため、手で加工してい
た。しかし、このような方法では、精度を高めるために
は長い加工時間が必要であった。
Conventionally, when a part of a patient's bone is defective, artificial bone is replaced in the defective part. The artificial bone to be replenished is processed according to the shape of the defect,
Since precision was required for the processing, it was processed by hand. However, in such a method, a long processing time was required to increase the accuracy.

【0082】そこで、図13に示すように、欠損部の骨
の加工処理の大まかな処置の流れを示すフローチャート
である。図13に示すように、例えばCTスキャナのよ
うな画像診断装置131の断層撮影機能で得られた患者
の骨の欠損部に関する画像データに基づき、画像処理装
置132は、3次元モデルデータの構築と、欠損部に補
充する人工骨の形状決定をする。決定された形状データ
は画像処理装置132から加工装置133に転送され
る。その画像処理装置132からの欠損部の形状データ
に基づいて、例えばマシニングセンタのような加工装置
133は、人口骨の製造、すなわち加工を行う。
Therefore, as shown in FIG. 13, it is a flow chart showing a rough procedure of the processing for processing the bone at the defective portion. As shown in FIG. 13, the image processing device 132 constructs three-dimensional model data based on image data on a bone defect of a patient obtained by a tomography function of an image diagnostic device 131 such as a CT scanner. The shape of the artificial bone to be added to the defect is determined. The determined shape data is transferred from the image processing device 132 to the processing device 133. On the basis of the shape data of the defective portion from the image processing device 132, a processing device 133 such as a machining center manufactures artificial bones, that is, performs processing.

【0083】すなわち、画像診断装置で得られた患者の
データを基に、画像処理手段132で骨の欠損部近傍の
三次元データを構築する。さらに画像処理装置132
で、この構築された三次元データに基づいて、欠損部に
補充する人工骨の形状データを構築する。構築された人
工骨の形状データに基づいて人工骨の製造が行われる。
That is, based on the patient data obtained by the image diagnostic apparatus, the image processing means 132 constructs three-dimensional data in the vicinity of the bone defect. Further, the image processing device 132
Then, based on the constructed three-dimensional data, the shape data of the artificial bone to be replenished to the defective part is constructed. An artificial bone is manufactured based on the constructed shape data of the artificial bone.

【0084】図14は、その欠損した骨について、欠損
部に対応した人口骨の加工を説明するための説明図であ
る。図14の(A)において、141は、もともとの欠
損した骨を示す。142は、欠損した部分を示す。
(B)において、143の点線は、欠損した骨141に
対して、欠損のない状態の骨を示す。(C)において
は、144の点線は、欠損のない骨143の対向する骨
をで示す。なお、図14(A)、(B)、(C)に示す
画像は、図示しないコンピュータの表示装置上に表示す
ることができる。
FIG. 14 is an explanatory diagram for explaining the processing of the artificial bone corresponding to the defective portion with respect to the lost bone. In FIG. 14A, reference numeral 141 denotes the originally missing bone. Reference numeral 142 denotes a missing portion.
In (B), a dotted line 143 indicates a bone in a state where there is no defect with respect to the lost bone 141. In (C), the dotted line at 144 indicates the opposite bone of the bone 143 without defects. The images shown in FIGS. 14A, 14B, and 14C can be displayed on a display device of a computer (not shown).

【0085】欠損のある骨をCTスキャンし、スキャン
した画像データに基づいて、立体画像データ、すなわち
三次元データを得る。その三次元データにより、図14
(A)に示すように、欠損のある骨が画面上に表示され
る。
A bone having a defect is subjected to a CT scan, and three-dimensional image data, that is, three-dimensional data is obtained based on the scanned image data. According to the three-dimensional data, FIG.
As shown in (A), a defective bone is displayed on the screen.

【0086】コンピュータの操作者は、表示された画像
に、欠損のない骨、すなわち元の状態の骨の形状データ
をコンピュータ上に生成する。その生成の方法は、画面
上でマウス等のポインティングデバイスを用いて複数の
点の位置を指定しながら、形状を特定していくことで形
状データが生成される。生成された形状は、図13
(B)に示すように、143の点線で表示される。
The operator of the computer generates, on the computer, shape data of the bone having no defect, ie, the bone in the original state, in the displayed image. In the generation method, shape data is generated by specifying a shape while specifying the positions of a plurality of points using a pointing device such as a mouse on a screen. The generated shape is shown in FIG.
As shown in (B), it is indicated by the dotted line 143.

【0087】次に、欠損部の当たる骨、すなわち対向す
る骨の形状データを生成して画面上に重畳表示する。図
14(C)では、144の点線で表示されている。な
お、対向する骨の形状データは、欠損のある骨の三次元
データを生成したように、CTスキャン等によって得る
ようにしてもよい。
Next, the shape data of the bone corresponding to the defective portion, that is, the opposite bone is generated and superimposed and displayed on the screen. In FIG. 14C, it is indicated by a dotted line 144. In addition, the shape data of the opposing bone may be obtained by a CT scan or the like, as in the case of generating three-dimensional data of a bone having a defect.

【0088】従って、患者の欠損部に補充する人工骨の
形状を高い精度で、迅速に加工することが可能となる。
Therefore, the shape of the artificial bone to be replenished to the defect part of the patient can be quickly processed with high accuracy.

【0089】以上の処理を、図15により説明する。図
15は、欠損のある骨の欠損部の人工骨を製造するため
の加工データを出力するまでの処理の流れを示すフロー
チャートである。
The above processing will be described with reference to FIG. FIG. 15 is a flowchart showing a flow of processing until output of processing data for manufacturing an artificial bone at a defective portion of a defective bone.

【0090】まず、S151において、画像診断装置に
より、欠損した骨の三次元データを生成し、画面上に表
示する(図14(A))。続いて、S152で、コンピ
ュータの操作者は、欠損前の理想とする骨の画像データ
を生成し、画面上に重畳表示する(図14(B))。さ
らに、続いて、S153において、欠損した骨に対向す
る、すなわち繋がる骨の画像データを生成し、画面上に
重畳表示する(図14(C))。
First, in S151, the image diagnostic apparatus generates three-dimensional data of the lost bone and displays it on the screen (FIG. 14A). Subsequently, in S152, the operator of the computer generates image data of the ideal bone before the loss, and superimposes the image data on the screen (FIG. 14B). Further, subsequently, in S153, image data of a bone facing, that is, connected to, the lost bone is generated and is superimposed and displayed on the screen (FIG. 14C).

【0091】操作者は、対向した骨と、欠損部を補充し
た骨の繋がり具合を確認、すなわち、欠損部の良否を判
断する。繋がり具合が悪ければ、S154でNOとな
り、S153に戻り、再度欠損前の骨の画像データの生
成の処理をして、欠損部の形状の最適化を行う。S15
4でYESとなると、欠損部の画像データを生成する
(S155)。これは、欠損前の画像データと欠損した
骨の画像データの差分を取ることによって生成すること
ができる。そして、生成された欠損部の画像データを、
加工装置への加工用データとして、各種メモリにストア
したり、通信回線により送信等するために出力する(S
156)。
The operator checks the connection between the opposing bone and the bone supplemented with the defective part, that is, judges the quality of the defective part. If the connection is not good, the result of S154 is NO, the process returns to S153, and the process of generating the image data of the bone before the loss is performed again to optimize the shape of the lost portion. S15
If YES in step 4, image data of the missing portion is generated (S155). This can be generated by taking the difference between the image data before the loss and the image data of the lost bone. Then, the generated image data of the defective portion is
The data is stored in various memories as processing data for the processing apparatus, or output for transmission via a communication line (S
156).

【0092】以上のように、患者からから得られた三次
元画像データを基に、人工骨を容易に加工できるという
面で、医療処置を補助することができる。
As described above, medical treatment can be assisted in that an artificial bone can be easily processed based on three-dimensional image data obtained from a patient.

【0093】以上説明したように、本発明の医療処置補
助装置によれば、処置対象の位置が容易に把握できるの
で、種々の医療処置において適用することができる。特
に、手術等において、処置対象の位置等を明確に示すの
で、手術をナビゲートする装置としても利用することも
できる。
As described above, according to the medical treatment assisting apparatus of the present invention, the position of the treatment target can be easily grasped, and therefore, it can be applied to various medical treatments. In particular, since the position of a treatment target and the like are clearly shown in an operation or the like, the device can be used as a device for navigating the operation.

【0094】なお、以上説明した実施の形態に係る構成
から、次の付記に示す構成に特徴がある。
The configuration according to the embodiment described above is characterized by the configuration shown in the following appendix.

【0095】[付記項] (1)被検体の観察画像信号を得るための観察部と少な
くとも先端の位置を検出するための第1の位置検出用手
段とを備えた第1の挿入部を有する内視鏡と、第2の挿
入部を有し、該第2の挿入部の挿入位置の検出をするた
めの第2の位置検出用手段を備えた第1の挿入具と、前
記第1および第2の位置検出用手段からの位置情報に基
づいて、前記内視鏡の先端と前記第2の挿入部の位置関
係を求める第1の演算手段と、前記観察画像信号に基い
て得られる内視鏡画像に、前記第1の演算手段の演算結
果に基いて前記第2の挿入部の挿入位置を画像として合
成して表示出力する合成手段と、を備えたことを特徴と
する医療処置補助装置。
[Supplementary Notes] (1) A first insertion section provided with an observation section for obtaining an observation image signal of the subject and at least a first position detection means for detecting the position of the distal end is provided. An endoscope, a first insertion tool having a second insertion portion, and a second insertion position detection means for detecting an insertion position of the second insertion portion; First calculating means for obtaining a positional relationship between the distal end of the endoscope and the second insertion portion based on position information from a second position detecting means; and an inner part obtained based on the observation image signal. Synthesizing means for synthesizing an insertion position of the second insertion portion as an image based on an operation result of the first operation means with an endoscope image, and displaying and outputting the image. apparatus.

【0096】(2)第3の挿入部を有し、該第3の挿入
部の挿入位置の検出をするための第3の位置検出用手段
を備えた第2の挿入具と、前記第2および第3の位置検
出用手段からの位置情報に基づいて、前記第2の挿入部
と前記第3の挿入部の位置関係を求める第2の演算手段
と、を更に有し、前記合成手段は、前記第2の演算手段
の演算結果に基いて、前記第2の挿入部の表示状態を変
更する、ことを特徴とする付記項(1)記載の医療処置
補助装置。
(2) A second insertion tool having a third insertion portion and having third position detecting means for detecting the insertion position of the third insertion portion, And second calculating means for calculating a positional relationship between the second insertion portion and the third insertion portion based on position information from the third position detecting means, and the combining means includes: The medical treatment assistance device according to claim 1, wherein a display state of the second insertion portion is changed based on a calculation result of the second calculation unit.

【0097】(3)エネルギー処置具を有する挿入部を
有し、該挿入部の挿入位置の検出をするための位置検出
用手段を備えた挿入具と、予め設定された三次元データ
と、前記位置検出用手段からの位置情報に基いて、前記
エネルギー処置具へのエネルギー供給を制御する制御手
段と有することを特徴とする医療処置補助装置。
(3) An insertion device having an insertion portion having an energy treatment device, and a position detection means for detecting the insertion position of the insertion portion, three-dimensional data set in advance, A medical treatment assisting device, comprising: control means for controlling energy supply to the energy treatment device based on position information from position detection means.

【0098】(4)少なくとも1つの第1位置検出手段
を有する体内に挿入される内視鏡と、少なくとも1つの
第2位置検出手段を有する体内に挿入されるプローブ
と、少なくとも1つの第3位置検出手段を有し、内視鏡
視野内に挿入される器具と、第1、第2位置検出手段よ
り互いの位置関係を演算する第1の演算手段と、第1の
演算結果よりプローブの位置を内視鏡画像に合成、表示
する手段と、第2、第3位置検出手段より互いの位置関
係を演算する第2の演算手段と、第2の演算結果に応じ
て、内視鏡画像上のプローブ画像の表示内容を変化させ
る手段からなるナビゲーションシステム。
(4) An endoscope inserted into the body having at least one first position detecting means, a probe inserted into the body having at least one second position detecting means, and at least one third position An instrument which has a detecting means and is inserted into the visual field of the endoscope; a first calculating means for calculating a positional relationship between the first and second position detecting means; and a position of the probe based on the first calculation result Means for synthesizing and displaying the endoscope image on the endoscope image, second calculating means for calculating the mutual positional relationship from the second and third position detecting means, and A navigation system comprising means for changing the display content of a probe image.

【0099】(5)先端位置を検出する手段を有する器
具と、器具の先端位置を第1の座標に構築する手段と、
予め行われる画像診断より被検体の処置範囲を第2の座
標に構築し、記憶する手段と、第2の座標を呼び出し、
第1の座標との相対位置を演算する手段と、演算結果を
術者に告知する手段とからなる、ナビゲーションシステ
ム。
(5) An instrument having means for detecting the tip position, means for constructing the tip position of the instrument at the first coordinates,
Means for constructing and storing the treatment range of the subject at the second coordinates based on image diagnosis performed in advance, and calling the second coordinates;
A navigation system comprising: means for calculating a relative position with respect to first coordinates; and means for notifying an operator of the calculation result.

【0100】(6)前記器具に接続されたエネルギー供
給手段と、該エネルギー供給手段は前述の演算結果を取
り込む手段と、取り込まれた演算結果に応じてエネルギ
ーの供給を制御する手段とを有するエネルギー供給手段
を含む、付記項(5)に記載のナビゲーションシステ
ム。
(6) An energy supply means connected to the appliance, the energy supply means having means for taking in the above-mentioned operation result, and means for controlling the supply of energy according to the operation result taken in The navigation system according to item (5), including a supply unit.

【0101】(7)一部が欠損した骨の欠損部分を3次
元データで構築する工程と、欠損部位に対向する骨部の
3次元データを構築する工程と、前述した2つの3次元
データを重畳し、欠損部分のデータを最適化する工程
と、最適化されたデータを基に人工骨を加工する工程
と、からなる人工骨加工方法。
(7) A step of constructing a missing part of a partially lost bone with three-dimensional data, a step of constructing three-dimensional data of a bone part facing a defect part, and a step of combining the two three-dimensional data described above. An artificial bone processing method comprising: a step of superimposing and optimizing data of a defective portion; and a step of processing an artificial bone based on the optimized data.

【0102】[0102]

【発明の効果】以上説明したように、本発明の医療処置
補助装置によれば、医療処置において、処置対象の位置
が容易に把握でき、医療処置を円滑に行うことができ
る。
As described above, according to the medical treatment assisting apparatus of the present invention, the position of the treatment target can be easily grasped in the medical treatment, and the medical treatment can be smoothly performed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る医療処置補助装置を用いて行われ
る手術の例を説明するための説明図である。
FIG. 1 is an explanatory diagram for explaining an example of an operation performed using the medical treatment assisting device according to the present invention.

【図2】本発明に係る医療処置補助装置の一例を示すブ
ロック構成図である。
FIG. 2 is a block diagram showing an example of a medical treatment assistance device according to the present invention.

【図3】医療処置補助装置のモニタに表示される画面表
示例を示す図である。
FIG. 3 is a diagram showing a screen display example displayed on a monitor of the medical treatment assisting device.

【図4】医療処置補助装置のモニタに表示される画面表
示例を示す図である。
FIG. 4 is a diagram showing a screen display example displayed on a monitor of the medical treatment assisting device.

【図5】本発明に係る医療処置補助装置を用いて行われ
る手術の例を説明するための説明図である。
FIG. 5 is an explanatory diagram for explaining an example of an operation performed using the medical treatment assisting device according to the present invention.

【図6】医療処置補助装置のモニタに表示される画面表
示例を示す図である。
FIG. 6 is a diagram showing a screen display example displayed on a monitor of the medical treatment assisting device.

【図7】本発明に係る医療処置補助装置を用いて行われ
る手術の例を説明するための説明図である。
FIG. 7 is an explanatory diagram for explaining an example of an operation performed using the medical treatment assisting device according to the present invention.

【図8】サージカルマージンと切除の関係を説明するた
めの説明図である。
FIG. 8 is an explanatory diagram for explaining a relationship between a surgical margin and resection.

【図9】処置具とサージカルマージンの位置関係を説明
するための説明図である。
FIG. 9 is an explanatory diagram for explaining a positional relationship between a treatment tool and a surgical margin.

【図10】処置具とサージカルマージンの位置関係を説
明するための説明図である。
FIG. 10 is an explanatory diagram for explaining a positional relationship between a treatment tool and a surgical margin.

【図11】処置具へのエネルギー出力の制御処理の流れ
を示すフローチャートである。
FIG. 11 is a flowchart showing a flow of a control process of an energy output to the treatment tool.

【図12】医療処置補助装置のモニタに表示される画面
表示例を示す。
FIG. 12 shows a screen display example displayed on a monitor of the medical treatment assisting device.

【図13】欠損部の骨の加工処理の大まかな処置の流れ
を示すフローチャートである。
FIG. 13 is a flowchart showing a flow of a rough treatment for processing a bone at a defective portion.

【図14】欠損部に対応した人口骨の加工を説明するた
めの説明図である。
FIG. 14 is an explanatory diagram for explaining processing of artificial bone corresponding to a defective portion.

【図15】欠損部の骨の加工処理の具体的な処置の流れ
を示すフローチャートである。
FIG. 15 is a flowchart showing the flow of a specific treatment for processing a bone at a defect.

【符号の説明】[Explanation of symbols]

1、71・・・医療処置補助装置 2、72・・・内視鏡 3、4、45、46、52、53、74、93、113
・・・鉗子 5・・・プローブ 10、11、43、44・・・プローブ挿入部 7、32、81・・・内視鏡画像処理装置 13、21、78・・・演算装置 51・・・内視鏡挿入部 54・・・経膣プローブ 75・・・電源 77・・・スイッチ
1, 71: Medical treatment assistance device 2, 72: Endoscope 3, 4, 45, 46, 52, 53, 74, 93, 113
... forceps 5 ... probe 10, 11, 43, 44 ... probe insertion part 7, 32, 81 ... endoscope image processing apparatus 13, 21, 78 ... arithmetic unit 51 ... Endoscope insertion section 54 Transvaginal probe 75 Power supply 77 Switch

───────────────────────────────────────────────────── フロントページの続き (72)発明者 梶 国英 東京都渋谷区幡ヶ谷2丁目43番2号 オリ ンパス光学工業株式会社内 (72)発明者 加川 裕昭 東京都渋谷区幡ヶ谷2丁目43番2号 オリ ンパス光学工業株式会社内 (72)発明者 木村 修一 東京都渋谷区幡ヶ谷2丁目43番2号 オリ ンパス光学工業株式会社内 (72)発明者 高橋 裕史 東京都渋谷区幡ヶ谷2丁目43番2号 オリ ンパス光学工業株式会社内 (72)発明者 中満 竹千代 東京都渋谷区幡ヶ谷2丁目43番2号 オリ ンパス光学工業株式会社内 (72)発明者 中村 剛明 東京都渋谷区幡ヶ谷2丁目43番2号 オリ ンパス光学工業株式会社内 Fターム(参考) 4C061 AA00 BB00 CC00 DD00 FF50 GG11 HH51 LL02  ──────────────────────────────────────────────────続 き Continued on the front page (72) Kunihide Kaji, 2-34-2 Hatagaya, Shibuya-ku, Tokyo Inside Olympus Optical Co., Ltd. (72) Hiroaki Kagawa 2-43-2, Hatagaya, Shibuya-ku, Tokyo No. Olympus Optical Co., Ltd. (72) Shuichi Kimura, Inventor 2-43-2 Hatagaya, Shibuya-ku, Tokyo Olympus Optical Co., Ltd. (72) Hiroshi Takahashi, 2-43-2 Hatagaya, Shibuya-ku, Tokyo No. Olympus Optical Co., Ltd. (72) Inventor Takechiyo Nakamitsu 2-43-2 Hatagaya, Shibuya-ku, Tokyo In-line Olympus Optical Co., Ltd. (72) Takeaki Nakamura 2-chome, Hatagaya, Shibuya-ku, Tokyo 43-2 F-term in Olympus Optical Co., Ltd. (reference) 4C061 AA00 BB00 CC00 DD00 FF50 GG11 HH51 LL02

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】被検体の観察画像信号を得るための観察部
と少なくとも先端の位置を検出するための第1の位置検
出用手段とを備えた第1の挿入部を有する内視鏡と、 第2の挿入部を有し、該第2の挿入部の挿入位置の検出
をするための第2の位置検出用手段を備えた第1の挿入
具と、 前記第1および第2の位置検出用手段からの位置情報に
基づいて、前記内視鏡の先端と前記第2の挿入部の位置
関係を求める第1の演算手段と、 前記観察画像信号に基いて得られる内視鏡画像に、前記
第1の演算手段の演算結果に基いて前記第2の挿入部の
挿入位置を画像として合成して表示出力する合成手段
と、 を備えたことを特徴とする医療処置補助装置。
1. An endoscope having a first insertion section including an observation section for obtaining an observation image signal of a subject and at least a first position detection means for detecting a position of a tip, A first insertion tool having a second insertion portion and having second position detection means for detecting an insertion position of the second insertion portion; and the first and second position detections. First calculating means for obtaining a positional relationship between the distal end of the endoscope and the second insertion portion based on position information from the use means, and an endoscope image obtained based on the observation image signal, Synthesizing means for synthesizing and displaying an insertion position of the second insertion portion as an image based on a calculation result of the first calculating means, and outputting the image.
【請求項2】第3の挿入部を有し、該第3の挿入部の挿
入位置の検出をするための第3の位置検出用手段を備え
た第2の挿入具と、 前記第2および第3の位置検出用手段からの位置情報に
基づいて、前記第2の挿入部と前記第3の挿入部の位置
関係を求める第2の演算手段と、 を更に有し、 前記合成手段は、前記第2の演算手段の演算結果に基い
て、前記第2の挿入部の表示状態を変更する、 ことを特徴とする請求項1記載の医療処置補助装置。
A second insertion tool having a third insertion portion and a third position detecting means for detecting an insertion position of the third insertion portion; A second calculating unit that obtains a positional relationship between the second insertion unit and the third insertion unit based on position information from a third position detection unit. The medical treatment assistance device according to claim 1, wherein a display state of the second insertion portion is changed based on a calculation result of the second calculation unit.
【請求項3】エネルギー処置具を有する挿入部を有し、
該挿入部の挿入位置の検出をするための位置検出用手段
を備えた挿入具と、 予め設定された三次元データと、前記位置検出用手段か
らの位置情報に基いて、前記エネルギー処置具へのエネ
ルギー供給を制御する制御手段と有することを特徴とす
る医療処置補助装置。
3. An insertion section having an energy treatment device,
An insertion tool provided with a position detecting means for detecting an insertion position of the insertion portion; three-dimensional data set in advance; and position information from the position detecting means, to the energy treatment tool. A medical treatment assisting device comprising: a control unit for controlling energy supply of the medical treatment.
JP2001058909A 2001-03-02 2001-03-02 Device for assisting medical treatment Pending JP2002253480A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001058909A JP2002253480A (en) 2001-03-02 2001-03-02 Device for assisting medical treatment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001058909A JP2002253480A (en) 2001-03-02 2001-03-02 Device for assisting medical treatment

Publications (1)

Publication Number Publication Date
JP2002253480A true JP2002253480A (en) 2002-09-10

Family

ID=18918558

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001058909A Pending JP2002253480A (en) 2001-03-02 2001-03-02 Device for assisting medical treatment

Country Status (1)

Country Link
JP (1) JP2002253480A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006187385A (en) * 2005-01-04 2006-07-20 Olympus Corp Endoscope device and contact position acquisition method therefor
JP2006223849A (en) * 2005-01-18 2006-08-31 Pentax Corp Electronic endoscope system
JP2006223850A (en) * 2005-01-18 2006-08-31 Pentax Corp Electronic endoscope system
JP2006280591A (en) * 2005-03-31 2006-10-19 Olympus Medical Systems Corp Surgery support device
JP2006280592A (en) * 2005-03-31 2006-10-19 Olympus Medical Systems Corp Treatment support device
WO2006112136A1 (en) * 2005-03-31 2006-10-26 Olympus Medical Systems Corp. Surgery assisting apparatus and treatment assisting apparatus
JP2009233240A (en) * 2008-03-28 2009-10-15 Univ Waseda Surgery supporting system, approaching state detection device and program thereof
JP2011212301A (en) * 2010-03-31 2011-10-27 Fujifilm Corp Projection image generation apparatus and method, and program
JP2012050618A (en) * 2010-08-31 2012-03-15 Fujifilm Corp Image acquiring and displaying method, and image capturing and display device
WO2015119012A1 (en) * 2014-02-07 2015-08-13 オリンパス株式会社 Surgical system and method for operating surgical system
JP2016131866A (en) * 2015-01-18 2016-07-25 鈴木 秀幸 Ultrasonic distance measurement instrument for endoscopic surgery
WO2016158214A1 (en) * 2015-04-01 2016-10-06 オリンパス株式会社 Power supply device for high frequency treatment instrument, high frequency treatment system, and control method for high frequency treatment instrument
WO2016203867A1 (en) * 2015-06-19 2016-12-22 オリンパス株式会社 Power source device for high-frequency treatment instrument, high-frequency treatment system, and operation method for high-frequency treatment system
WO2017109874A1 (en) * 2015-12-24 2017-06-29 オリンパス株式会社 Operation method of medical manipulator system
JP2020022563A (en) * 2018-08-06 2020-02-13 ソニー・オリンパスメディカルソリューションズ株式会社 Medical observation apparatus

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06269391A (en) * 1993-03-19 1994-09-27 Olympus Optical Co Ltd Body cavity diagnosing treatment apparatus
JPH06285021A (en) * 1993-04-07 1994-10-11 Olympus Optical Co Ltd Surgery system under endoscope
JP2001500749A (en) * 1996-02-15 2001-01-23 バイオセンス・インコーポレイテッド Medical method and apparatus using in-vivo probe

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06269391A (en) * 1993-03-19 1994-09-27 Olympus Optical Co Ltd Body cavity diagnosing treatment apparatus
JPH06285021A (en) * 1993-04-07 1994-10-11 Olympus Optical Co Ltd Surgery system under endoscope
JP2001500749A (en) * 1996-02-15 2001-01-23 バイオセンス・インコーポレイテッド Medical method and apparatus using in-vivo probe

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006187385A (en) * 2005-01-04 2006-07-20 Olympus Corp Endoscope device and contact position acquisition method therefor
JP2006223849A (en) * 2005-01-18 2006-08-31 Pentax Corp Electronic endoscope system
JP2006223850A (en) * 2005-01-18 2006-08-31 Pentax Corp Electronic endoscope system
EP1864624A4 (en) * 2005-03-31 2013-06-05 Olympus Medical Systems Corp SURGICAL ASSISTING APPARATUS AND TREATMENT ASSISTING APPARATUS
JP2006280591A (en) * 2005-03-31 2006-10-19 Olympus Medical Systems Corp Surgery support device
JP2006280592A (en) * 2005-03-31 2006-10-19 Olympus Medical Systems Corp Treatment support device
WO2006112136A1 (en) * 2005-03-31 2006-10-26 Olympus Medical Systems Corp. Surgery assisting apparatus and treatment assisting apparatus
AU2006238292B2 (en) * 2005-03-31 2010-04-15 Olympus Medical Systems Corp. Surgery assisting apparatus and treatment assisting apparatus
JP2009233240A (en) * 2008-03-28 2009-10-15 Univ Waseda Surgery supporting system, approaching state detection device and program thereof
JP2011212301A (en) * 2010-03-31 2011-10-27 Fujifilm Corp Projection image generation apparatus and method, and program
US9241615B2 (en) 2010-08-31 2016-01-26 Fujifilm Corporation Image acquisition and display method and image capturing and display apparatus
JP2012050618A (en) * 2010-08-31 2012-03-15 Fujifilm Corp Image acquiring and displaying method, and image capturing and display device
CN102440760A (en) * 2010-08-31 2012-05-09 富士胶片株式会社 Image acquisition and display method and image capturing and display apparatus
CN105939688B (en) * 2014-02-07 2019-03-19 奥林巴斯株式会社 Surgical system and method of operation of the surgical system
WO2015119012A1 (en) * 2014-02-07 2015-08-13 オリンパス株式会社 Surgical system and method for operating surgical system
JP2015146981A (en) * 2014-02-07 2015-08-20 オリンパス株式会社 Surgical system and method of operating the surgical system
CN105939688A (en) * 2014-02-07 2016-09-14 奥林巴斯株式会社 Surgical system and method for operating surgical system
JP2016131866A (en) * 2015-01-18 2016-07-25 鈴木 秀幸 Ultrasonic distance measurement instrument for endoscopic surgery
JP6058231B1 (en) * 2015-04-01 2017-01-11 オリンパス株式会社 POWER SUPPLY DEVICE FOR HIGH FREQUENCY TREATMENT DEVICE, HIGH FREQUENCY TREATMENT SYSTEM, AND METHOD FOR OPERATING POWER SUPPLY DEVICE FOR OPERATING HIGH FREQUENCY TREATMENT DEVICE
WO2016158214A1 (en) * 2015-04-01 2016-10-06 オリンパス株式会社 Power supply device for high frequency treatment instrument, high frequency treatment system, and control method for high frequency treatment instrument
WO2016203867A1 (en) * 2015-06-19 2016-12-22 オリンパス株式会社 Power source device for high-frequency treatment instrument, high-frequency treatment system, and operation method for high-frequency treatment system
JP6095878B1 (en) * 2015-06-19 2017-03-15 オリンパス株式会社 POWER SUPPLY DEVICE FOR HIGH FREQUENCY TREATMENT DEVICE, HIGH FREQUENCY TREATMENT SYSTEM, AND OPERATING METHOD OF HIGH FREQUENCY TREATMENT SYSTEM
CN107106231A (en) * 2015-06-19 2017-08-29 奥林巴斯株式会社 The method of work of supply unit, high-frequency treatment system and high-frequency treatment system for high-frequency treatment utensil
WO2017109874A1 (en) * 2015-12-24 2017-06-29 オリンパス株式会社 Operation method of medical manipulator system
JP2020022563A (en) * 2018-08-06 2020-02-13 ソニー・オリンパスメディカルソリューションズ株式会社 Medical observation apparatus
US11638000B2 (en) 2018-08-06 2023-04-25 Sony Olympus Medical Solutions Inc. Medical observation apparatus
JP2023099552A (en) * 2018-08-06 2023-07-13 ソニー・オリンパスメディカルソリューションズ株式会社 Medical observation system and medical control device
JP7591604B2 (en) 2018-08-06 2024-11-28 ソニー・オリンパスメディカルソリューションズ株式会社 Medical Observation System

Similar Documents

Publication Publication Date Title
JP7443353B2 (en) Correction of computed tomography (CT) images using position and orientation (P&D) tracking-assisted optical visualization
US7940967B2 (en) Medical procedure support system and method
JP5380348B2 (en) System, method, apparatus, and program for supporting endoscopic observation
CN111867438B (en) Surgical assistance device, surgical method, non-transitory computer readable medium, and surgical assistance system
CN102231965B (en) Biopsy support system
JP5535725B2 (en) Endoscope observation support system, endoscope observation support device, operation method thereof, and program
CN102811655B (en) System and device for supporting endoscopic observation
JP6323335B2 (en) Image processing apparatus, image processing method, and program
JP5486432B2 (en) Image processing apparatus, operating method thereof, and program
US20050033117A1 (en) Object observation system and method of controlling object observation system
US12156704B2 (en) Intraluminal navigation using ghost instrument information
JP2006218129A (en) Surgery supporting system
JP2002253480A (en) Device for assisting medical treatment
WO2012014438A1 (en) Device, method, and program for assisting endoscopic observation
JP4875416B2 (en) Medical guide system
WO2023162657A1 (en) Medical assistance device, medical assistance device operation method, and operation program
JP2002238844A (en) Endoscope device
WO2019155931A1 (en) Surgical system, image processing device, and image processing method
JP2006198032A (en) Surgery support system
JP2005021353A (en) Surgery supporting apparatus
WO2022190366A1 (en) Shape measurement system for endoscope and shape measurement method for endoscope
JP7495242B2 (en) Medical image diagnostic device, surgical support robot device, surgical support robot control device and control program
JP2005287893A (en) Procedure support system
JP2006198031A (en) Surgery support system
JP4546043B2 (en) Virtual image display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100727

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101124