[go: up one dir, main page]

JP3910239B2 - Medical image synthesizer - Google Patents

Medical image synthesizer Download PDF

Info

Publication number
JP3910239B2
JP3910239B2 JP30327096A JP30327096A JP3910239B2 JP 3910239 B2 JP3910239 B2 JP 3910239B2 JP 30327096 A JP30327096 A JP 30327096A JP 30327096 A JP30327096 A JP 30327096A JP 3910239 B2 JP3910239 B2 JP 3910239B2
Authority
JP
Japan
Prior art keywords
image
dimensional
medical image
dimensional image
medical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP30327096A
Other languages
Japanese (ja)
Other versions
JPH10143652A (en
Inventor
裕子 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Engineering Co Ltd filed Critical Toshiba Corp
Priority to JP30327096A priority Critical patent/JP3910239B2/en
Publication of JPH10143652A publication Critical patent/JPH10143652A/en
Application granted granted Critical
Publication of JP3910239B2 publication Critical patent/JP3910239B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Processing Or Creating Images (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、医用画像合成装置に係り、特に3次元医用画像と2次元画像とを合成表示する医用画像合成装置に関する。
【0002】
【従来の技術】
近年、外科手術を支援する目的で、手術の進入位置を前もって撮影された医用画像上にマーキングして表示する医用ナビゲーションシステムの開発が進められている。
一方、脳外科,耳鼻科領域では、顕微鏡下での手術が行われ、また、患者への侵襲が少ないという理由から内視鏡下での手術も普及してきている。
【0003】
これら顕微鏡下,内視鏡下の手術では、術者の視野が限定されることもあり、手術中に、現時点の手術の進入位置がどこであるかをリアルタイムで確認することが、手術の安全性,確実性といった点から要求される。
本願発明の発明者は、このような内視鏡下,顕微鏡下の手術を支援する目的の医用ナビゲーションシステムを、特願平7−337256号(名称「医用ナビゲーションシステム」)で提案した。
該提案は、内視鏡,顕微鏡,ビデオカメラ等により得た画像と、前もって撮影された医用画像(X線CT装置,MRI装置,核医学装置等の3次元医用画像)との位置関係を随時算出し、同位置,同方向の画像を表示するものである。
【0004】
【発明が解決しようとする課題】
ところで、内視鏡,顕微鏡,ビデオカメラ等で撮影した2次元画像には、光学レンズの特性等により、前記2次元画像に歪みが存在することがある。従って、前記ビデオカメラ等の2次元画像と医用画像から作成した3次元医用画像,断面画像を重ね合わせたり、合成して表示する際には、ズレが生じることがある。
【0005】
このズレをなくす手段として、「レンズ,カメラの製造段階で歪みを無くす」ということが考えられる。しかし、この手段は膨大なコストを必要とし、ビデオカメラ等が高価になってしまう。
【0006】
また、術者の視野を広げるためにビデオカメラ等による2次元画像を故意に歪める場合があり、この場合も前記重ね合わせを行うとズレが生じる。そこで、本発明の目的は、3次元医用画像と2次元画像とを同時または合成して表示する際に、2次元画像に起因する画像間のズレを抑え、被検体の所望患部の有用情報が容易に得られる医用画像合成装置を提供することである。
【0007】
【課題を解決するための手段】
上記目的を達成するために、本発明の医用画像合成装置は、医用画像診断装置によって撮影された被検体の3次元医用画像を記憶する3次元医用画像記憶手段と、前記被検体と同一被検体の2次元画像を供給する2次元画像供給手段と、この2次元画像供給手段から供給される2次元画像の前記被検体に対する位置を検出する位置検出手段と、この位置検出手段が検出した前記被検体の位置に対して、同位置になるように前記3次元医用画像を座標変換する座標変換手段と、前記2次元画像供給手段から供給される2次元画像の固有の透視投影による歪みに関するデータを記憶する歪みデータ記憶手段と、この歪みデータ記憶手段に記憶された歪みデータに基づき、前記座標変換後の3次元医用画像をゆがみ補正する3次元医用画像補正手段と、この3次元医用画像補正手段とにより補正された3次元医用画像と2次元画像供給手段から供給される2次元画像とを同時または合成して表示する表示手段とを備えたことを特徴とする。
【0008】
請求項1記載の発明によれば、位置検出手段は、2次元画像供給手段から供給される2次元画像の被検体に対する位置を検出する。座標変換手段は、検出された前記2次元画像の被検体の位置に対して、同一の位置になるように3次元医用画像を座標変換する。3次元医用画像補正手段は、歪みデータ記憶手段に記憶された2次元画像交友の透視投影による歪みに関するデータに基づき、座標変換後の3次元医用画像を補正する。表示手段は、補正後の3次元医用画像と、2次元画像供給手段から供給される2次元画像とを同時または合成して表示する。
【0009】
また、請求項2記載の発明は、前記2次元画像供給手段は、2次元画像を記憶する2次元画像記憶手段であることを特徴とする。
請求項2記載の発明によれば、2次元画像供給手段は2次元画像を記憶する2次元画像記憶手段なので、過去に記憶した2次元画像をも手術等に活用することができる。
【0010】
また、請求項3記載の発明は、前記2次元画像供給手段は、2次元画像を撮影し供給する2次元画像撮影手段であることを特徴とする。
請求項3記載の発明によれば、2次元画像供給手段は2次元画像を撮影し供給する2次元画像撮影手段(例えば、ビデオカメラ)なので、リアルタイムの2次元画像を手術等に活用できる。
【0011】
また、請求項4記載の発明は、前記表示手段に前記2次元画像と補正後の3次元医用画像とを同時または合成して表示する際に、前記2次元画像と補正後の3次元医用画像との合成領域を任意に設定する合成領域設定手段を備えたことを特徴とする。請求項4記載の発明によれば、例えば、図7(A)に示すように、2次元画像と補正後の3次元医用画像との合成領域を任意に設定できる。
【0012】
また、請求項5記載の発明は、前記表示手段に前記2次元画像と補正後の3次元医用画像とを同時または合成して表示する際に、前記2次元画像と補正後の3次元医用画像との合成割合を任意に設定する合成割合設定手段を備えたことを特徴とする。請求項5記載の発明によれば、2次元画像と3次元医用画像との合成割合(例えば、濃度、色等)を任意に設定できる。
【0013】
また、請求項6記載の発明は、前記表示手段に前記2次元画像と補正後の3次元医用画像とを同時または合成して表示する際に、前記2次元画像と補正後の3次元医用画像のいずれか一方の画像上で特定の部位を指定した場合に、この特定の部位に対応する他方の画像上のマークを表示させるマーク表示制御手段を備えたことを特徴とする。請求項6記載の発明によれば、例えば、図7(B)に示すように、ビデオカメラ画像に対して所望の箇所をマウスカーソルで指示すると、対応する3次元医用画像に基づく表面表示画像上の箇所にマーク(例えば、+マーク)が表示される。
【0014】
【発明の実施の形態】
以下、本発明の医用画像合成装置を図示の実施形態例に基づいて説明する。
【0015】
(I)ハードウエア構成
図1は本実施形態例のハードウェア構成を示すブロック図である。
図1に示すように、医用画像合成装置IGは、システム全体を管理するシステムコントローラ(CPU)1と、顕微鏡画像,内視鏡画像,ビデオカメラ画像等の2次元画像を撮影する2次元画像撮影部2と、該2次元画像撮影部2が被検体に対してどの位置にあるかを検出する位置検出部3と、前記2次元画像撮影部(例えば、ビデオカメラ)の固有の光学的歪みデータを記憶した歪みデータ記憶部4と、X線CT装置,MRI装置,SPECT装置,核医学装置等の医用画像診断装置12が撮影した3次元の医用画像データを保存する画像記憶部5とを備えている。
【0016】
更に医用画像合成装置IGは、前記画像記憶部5に保存された3次元医用画像データから次に説明する画像合成に用いられる表面表示画像,断面画像(MPR画像)を作成する画像処理部6と、前記2次元画像撮影部2が撮影した2次元画像の撮影位置に対し、同一撮影位置になるように画像記憶部5に保存された3次元医用画像(医用画像データ)を座標変換する座標変換部7と、座標変換後の3次元医用画像を、前記光学的歪みデータに基づいて歪み補正すると共に、前記2次元画像と歪み補正後の3次元医用画像との画像合成を行う画像合成部8と、該画像合成部8が合成した画像を表示する画像表示部9と、該画像表示部9に表示された画像の合成領域の選択(次に説明する)等を行うマウス10と、各装置を接続するバス11等を備えている。前記医用画像診断装置12は、医用画像合成装置IGに対してオンラインで接続されている。
【0017】
(II)動作説明
以下、本実施形態例の動作を、(1)座標変換、(2)カメラ画像の歪み、(3)合成画像の作成、(4)画像表示例に分けて説明する。
【0018】
(1)座標変換
本座標変換の概要趣旨は次の通りである。
例えば、同一被検体の同一箇所(例えば、頭部)の3次元医用画像と2次元画像とを比較表示する。該2次元画像が例えば側頭部画像であると仮定すると、3次元医用画像も同一方向から撮影した側頭部画像でないと、比較をするのが困難である。そこで、3次元医用画像から抽出した画像が、2次元画像に対して同一位置(例えば、側頭部)から見た画像になるように、画像変換する。
【0019】
図2は、医用画像(3次元医用画像)TDが、ビデオカメラ画像(2次元画像)SDと同一位置から見た画像となるように、座標変換を行う場合の概念図である。
図2に示すように、医用画像診断装置12(図1参照)は、被検体Hを連続した断層像として撮影する(3次元医用画像)。該3次元医用画像に対して、符号U1 に示すように、「X−Y−Z」の座標系を設定する。
一方、2次元画像撮影部2としてビデオカメラ2aを使用した場合に、該カメラ2aの設置位置に対しても、符号V1 に示すように、「X’−Y’−Z’」の座標系を設定する。該カメラ2aのZ’軸を被検体Hの方向にとれば、被検体Hの画像(この図では側頭部画像)は、符号V2 に示すように、「X’−Y’」座標上に存在する。
【0020】
医用画像(3次元医用画像)TDもカメラ画像(2次元画像)SDも、同一被験体Hに対して得られた画像であるので、「X−Y−Z」座標と「X’−Y’−Z’」座標との間で所定の座標変換を行えば、3次元医用画像に基づき、例えばビデオカメラ画像に相当する2次元画像を抽出することができる。この座標変換については、前記特願平7−337256号で提案した方式で行う。
【0021】
ここで、特願平7−337256号の座標変換を、本実施形態例に適用する方法を説明する。
座標変換部7は3次元医用画像TDから被検体Hの側頭部の外形形状(外形輪郭)を抽出し(図3(B)参照)、この抽出画像と、ビデオカメラ2aでリアルタイムで撮影中の被検体Hの外形形状(形状情報)(図3(A)参照)との相関を求めることによって、3次元医用画像TDと2次元画像SDとの位置関係を求める。
【0022】
次に、この位置関係の求め方を説明する。
先ず、3次元医用画像TDからの被検体Hの外形輪郭(図3(B))の抽出を行うには、3次元医用画像TDを対象として閾値によって被検体Hの実体部分とその他の背景(空気)の部分を区別する。閾値の決定には、3次元医用画像TDのヒストグラム(画像の信号値に対する画素数の分布をグラフ化したもの)を求め、背景部分のモード値と背景部分のピークの半値幅より次式によって算出する。
【0023】
【数1】
閾値=背景部分のモード値+k×背景部分のピーク値の半値幅
k:経験値
被検体Hの実体部分の信号値が背景の信号値よりも大きい場合は、
k=2.5である。
【0024】
3次元医用画像TD中で閾値より高い値をもつ画素に“1”、閾値よりも低い値をもつ画素に“0”を割り当てることによって、被検体Hの実体部分と背景(空気)部分が“1”または“0”の値で区別される。
“1”または“0”で表された3次元医用画像TDの“1”と“0”の境界を抽出することにより、被検体Hの外形抽出が可能となる(図3(B)参照)。なお、境界抽出法については、画像処理関連の文献に多々紹介されている。
【0025】
抽出された被検体Hの外形輪郭(図3(B)参照)は、3次元医用画像TD上の画素の集合として表現される。この輪郭画素の座標は3次元医用画像TDのもつ座標系に従って以下のように求められる。
図4に示すように、画像の第一画素の座標(0x、0y、0z)と列方向の1
【外1】

Figure 0003910239
目、行方向でj番目の位置にある場合、この画素の座標は
【数2】
(0x+Cx*i+Rx*j,0y+Cy*i+Ry*j,
0z+Cz*i+Rz*j)
となる。
【0026】
画像上の外形形状と被検体Hの外形形状との相関は、画像上の各外形輪郭点から一番近い計測外形形状までの点間の距離の平均或いは平均二乗和として計算する。従って、相関値が小さいほど2つの外形形状が一致することになる。
【0027】
このとき注意しなくてはならないのが、比較,相関をとる領域が同一でなくてはならないことである。例えば、3次元医用画像TDの撮影領域が下顎部分から頭頂まで頭全体にわたるのに対して、鼻から頭頂にかける頭の前方部分の限られた領域しか形状計測ができなかった場合等では、3次元医用画像TDから抽出した輪郭点に対応する形状情報が無い場合がある。このときは、計測した形状情報に対応させるため、相関の計算を行う輪郭点の制限が必要となる。
【0028】
これには、用いる3次元医用画像TDから作成した三次元表面表示画像(図4参照)を画像処理部6にて作成し、操作者が画像表示部9に表示されたこの三次元表面表示画像を見ながら領域の選択を行うようにする。領域の選択手段としては、図1中に示すマウス10によって画像表示部9上の(円形、矩形、自由形状)領域を指定するようにする。
【0029】
次に、以上のようにして求めた形状の相関に基づき、3次元医用画像TDと2次元画像SDとの位置関係を次のようにして導き出す。
3次元医用画像TDは医用画像診断装置12に基づく座標系(X−Y−Z)に存在し、2次元画像SDはカメラ2aに基づく座標系(X’−Y’−Z’)に存在する。
【0030】
【外2】
Figure 0003910239
標系がいずれも実寸法の座標系である場合には、変換行列は、三軸方向の回転と三軸方向の平行移動によって表現される。
【0031】
【外3】
Figure 0003910239
ここで、3次元医用画像TDから抽出された輪郭画素をPi 、この画素の座標を位置ベク
【外4】
Figure 0003910239
た点の座標に一番近い計測外形の点を探索し、2つの点間の距離を計算する。
【0032】
この処理を指定された領域内にある全ての輪郭画素について全て求め相関値Cを算出する。
【0033】
【外5】
Figure 0003910239
は最適化と呼ばれ、現在までに最急降下法、やきなまし法、滑降シンプレックス法等様々な方法が提案されている。最適化の方法としてこれら既に提案されている方法のいずれを用いてもよい。
【0034】
(2)カメラ画像の歪み
カメラ画像(2次元画像)SDにはレンズ系の歪みと焦点位置によって決定される透視投影による歪み(例えば、遠くは小さく見え、近くは大きく見える)が存在する。従って、3次元医用画像TDの座標系とカメラ画像SDの座標系間の座標変換は、単純な回転,平行移動できまる変換とはならず、歪みの補正が含まれた変換となる。
一般に、カメラ画像SDの幾何補正は、写真計測,ロボットの目等のコンピュータビジョンの分野で様々な方式が提案されている。これらの多くは、各カメラの焦点距離毎に既知のパターンを撮影し、写ったパターンの形状から、補正パラメータを数学的に求める方法がとられている(カメラキャリブレーションと称されている)。この方法については、一般的な方法であるので、本実施形態例では特に方式を限定しない。
【0035】
(3)合成画像の作成
図5は本実施形態例の合成画像作成の流れを示すフローチャートである。
予め、使用する顕微鏡,内視鏡,ビデオカメラ等のレンズ系の歪みの補正パラメータを各焦点距離毎に求めておき、図6に示すカメラ情報テーブルとして歪みデータ記憶部4に記憶しておく。
【0036】
図5に示すように、位置検出部3により2次元画像撮影部(ビデオカメラ)2aの位置が検出され、その位置情報が入力されると(ステップS1)、座標変換部7が3次元医用画像TDの座標系(X−Y−Z)とビデオカメラ2aの座標系(X’−Y’−Z’)間の変換行列を算出する(ステップS2)。この算出は前記[(1)座標変換]に記載した方法による。
【0037】
次いで、カメラの焦点情報の入力が指示されると(ステップS3)、予め作成してあったカメラ情報テーブル(図6参照)から補正パラメータを読み出し(ステップS4)、この補正パラメータに基づき3次元医用画像TDの歪みの補正を行ない、補正後の3次元医用画像TDH を生成する(前述の如く歪み補正の方法は一般的なものでよい)。
補正後の3次元医用画像TDH とカメラ画像SDとを画像合成部8で重ね合せ処理を行って合成画像を作成する(ステップS7)。
【0038】
(4)画像表示例
以上のような流れにより画像合成部8で補正後の3次元医用画像TDH とカメラ画像SDとの重ね合せ処理を行い、更に画像表示部9に表示する具体例について説明する。
【0039】
▲1▼ 図7(A),(B)は、前述の座標変換と歪み補正を行って作成した3次元医用画像(医用画像)TDに基づく表面表示画像(斜線で示す)と、カメラ画像(2次元画像)SDとの合成表示例である。
【0040】
図7(A)は、表面表示画像とカメラ画像(2次元画像)の両画像を重ね合せて表示した例で、重ね合せる領域はマウスカーソルによる指定で設定する。重ね合せ領域の形状は矩形,円形,多角形等の任意に設定でき、重ね合せ領域は両画像の半透明合成画像として表示する。両画像の透明度/不透明度は合成レベルスライダ21を左右に移動操作することにより、連続的変化が可能である。
【0041】
図7(B)は、両画像を並べて表示した例である。いずれか一方の画像上でマウスカーソルを移動させると、他方の画像上にマウスカーソルと同一位置を示すマークが表示される(+マークで示す)。このようにすれば、両画像の位置関係が一目で分かる。
【0042】
▲2▼ 図8(A),(B)は、座標変換と歪み補正を行って作成した3次元医用画像に基づく断面表示画像と、カメラ画像との合成表示例である。
【0043】
図8(A)は両画像を重ね合せて表示した例で、重ね合せる領域はマウスカーソルとxyz軸にそれぞれ対応したスライダ22a,22b,22cによって設定する。
図8(A)においては、切り出す断面の形状をハコ型(立方体)としているが、円柱形等の形状でもよい。
また、合成領域はマウスのドラッキングによって回転させることが可能である。
【0044】
図8(B)は両画像を並べて表示する例である。
図8(B)において、カメラ画像上にマウスカーソルを移動させると、マウスカーソルで指定した位置を通る直交断面A,B(A断面,B断面)とカメラ画像の方向に垂直な断面が同時に表示される(斜線で示す)。
また、垂直断面の位置(図2においてカメラ2aからの遠さ)は、スライダ23を操作することで設定できる。
更に、各断面にはマウスカーソルに相当する位置にマーク(この例の場合、+印)が表示される。
【0045】
▲3▼ 図9は、カメラ画像と断面画像あるいは表面表示画像との重ね合せ表示の場合に(符号L1 で示す)、カメラの向きと合成領域の位置,深さを示すガイド画面(符号M1 で示す)を同時に表示した例である。
【0046】
図9において、重ね合せ画面L1 の医用画像(斜線で示す。この場合は断面画像)では被検体の頭部を目・鼻の方向から見て、どの程度の深さであるのか不明である。そこで、ガイド画面M1 として側頭部の表面表示画像を用意し、カメラ2aの設置方向を矢印で示すと共に、コの字状マークK1 により断面画像の深さを符号K11により示す。
このようにすれば、医用画像(表面表示画像または断面画像)の深さがどの程度であるかを一目で知ることができる。
【0047】
▲4▼ 図10は、カメラ画像と表面表示画像との並列表示の際に(符号L2 とM2 )、いずれか一方の画像上で、例えば手術の予定線31を描画したとき、他方の画像上にも、同じ予定線32が描かれる例である。
以上の▲1▼〜▲4▼で説明したような表示によって、カメラ2aで得られた被検体Hの画像(2次元画像)と、予め撮影された医用画像(3次元医用画像)TDとをズレや誤差なく関連して対応づけて観察することができるので、手術の支援に有効である。
【0048】
なお、本実施形態例では2次元画像撮影部(ビデオカメラ)2で撮影したリアルタイムの2次元画像と、画像記憶部4に記憶済みの3次元医用画像との合成処理について説明した。しかし、リアルタイムの2次元画像の代わりに、2次元画像撮影手段(内視鏡,顕微鏡,ビデオカメラ等)で撮影した2次元画像を予め2次元画像記憶手段(図示せず)に記憶しておき、該2次元画像記憶手段から2次元画像を取り出して3次元医用画像と前述の合成処理をしてもよい。
【0049】
【発明の効果】
以上説明したように各請求項記載の発明によれば、3次元医用画像と2次元画像とを同時または合成して表示する際に、2次元画像に起因する画像間のズレを抑え、被検体(患者)の所望患部の有用情報が容易に得られる医用画像合成装置を提供することができる。
【図面の簡単な説明】
【図1】本発明の実施形態例のシステム構成図である。
【図2】同実施形態例における座標変換を示す概念図である。
【図3】同実施形態例における被検体の図であって、(A)はビデオカメラで撮影した形状情報を示す図、(B)は3次元医用画像から抽出した外形輪郭を示す図である。
【図4】前記先願における医用画像の座標系を示す図である。
【図5】同実施形態例において合成画像の生成過程を示すフローチャートである。
【図6】同実施形態例におけるカメラの補正用の情報テーブルの例である。
【図7】同実施形態例におけるカメラ画像と表面表示画像との合成を説明する図である。
【図8】同実施形態例におけるカメラ画像と断面画像との合成を説明する図である。
【図9】同実施形態例におけるカメラ画像と医用画像(断面画像)とを合成した際に、表面表示画像ではどの程度の深さの断面画像であるかを説明する図である。
【図10】同実施形態例におけるカメラ画像に対して手術予定線を描いた場合に、対応する表面表示画像にも手術予定線が自動的に描かれる様子を説明する図である。
【符号の説明】
1 システムコントローラ
2 2次元画像撮影部
3 位置検出部
4 歪みデータ記憶部
5 画像記憶部
6 画像処理部
7 座標変換部
8 画像合成部
9 画像表示部
10 マウス
11 バス
12 医用画像診断装置[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a medical image synthesizer, and more particularly to a medical image synthesizer that synthesizes and displays a three-dimensional medical image and a two-dimensional image.
[0002]
[Prior art]
2. Description of the Related Art In recent years, for the purpose of assisting surgery, a medical navigation system for marking and displaying a surgical entry position on a medical image taken in advance has been developed.
On the other hand, in the field of neurosurgery and otolaryngology, surgery under a microscope is performed, and endoscopic surgery has also become widespread because it is less invasive to patients.
[0003]
In these microscopic and endoscopic operations, the field of view of the operator may be limited. During the operation, it is possible to confirm in real time where the current surgical entry position is. , Required in terms of certainty.
The inventor of the present invention has proposed a medical navigation system for supporting such endoscopic and microscopic surgery in Japanese Patent Application No. 7-337256 (named “medical navigation system”).
The proposal proposes the positional relationship between an image obtained by an endoscope, a microscope, a video camera and the like and a medical image (a three-dimensional medical image of an X-ray CT apparatus, an MRI apparatus, a nuclear medicine apparatus, etc.) taken in advance. The calculated image is displayed at the same position and in the same direction.
[0004]
[Problems to be solved by the invention]
By the way, in a two-dimensional image taken with an endoscope, a microscope, a video camera, or the like, distortion may exist in the two-dimensional image due to characteristics of an optical lens or the like. Accordingly, when a two-dimensional image such as the video camera is combined with a three-dimensional medical image or a cross-sectional image created from a medical image or displayed by being combined, a deviation may occur.
[0005]
As a means for eliminating this deviation, it is conceivable to “eliminate distortion at the manufacturing stage of the lens and camera”. However, this means requires enormous costs, and video cameras and the like become expensive.
[0006]
In addition, there is a case where a two-dimensional image obtained by a video camera or the like is intentionally distorted in order to widen the field of view of the operator. Therefore, an object of the present invention is to suppress a shift between images caused by a two-dimensional image when displaying a three-dimensional medical image and a two-dimensional image simultaneously or in combination, and to obtain useful information on a desired affected part of a subject. It is an object of the present invention to provide a medical image synthesis apparatus that can be easily obtained .
[0007]
[Means for Solving the Problems]
In order to achieve the above object, a medical image synthesizing apparatus according to the present invention includes a three-dimensional medical image storage means for storing a three-dimensional medical image of a subject photographed by a medical image diagnostic apparatus, and the same subject as the subject. A two-dimensional image supply means for supplying the two-dimensional image, a position detection means for detecting a position of the two-dimensional image supplied from the two-dimensional image supply means with respect to the subject, and the object detected by the position detection means. Coordinate conversion means for converting the coordinates of the three-dimensional medical image so as to be at the same position as the position of the specimen, and data relating to distortion caused by unique perspective projection of the two-dimensional image supplied from the two-dimensional image supply means Distortion data storage means for storing, and 3D medical image correction means for correcting distortion of the 3D medical image after the coordinate conversion based on the distortion data stored in the distortion data storage means , And further comprising a display means for displaying the two-dimensional image supplied from the three-dimensional medical image and the two-dimensional image supply means which is corrected by the three-dimensional medical image correcting unit simultaneously or combined to .
[0008]
According to the first aspect of the present invention, the position detecting means detects the position of the two-dimensional image supplied from the two-dimensional image supply means with respect to the subject. The coordinate conversion means performs coordinate conversion of the three-dimensional medical image so that the detected position of the subject of the two-dimensional image is the same position. The three-dimensional medical image correcting unit corrects the coordinate-converted three-dimensional medical image based on data relating to distortion caused by perspective projection of the two-dimensional image friend stored in the distortion data storage unit. The display means displays the corrected three-dimensional medical image and the two-dimensional image supplied from the two-dimensional image supply means simultaneously or in combination.
[0009]
The invention according to claim 2 is characterized in that the two-dimensional image supply means is a two-dimensional image storage means for storing a two-dimensional image.
According to the second aspect of the invention, since the two-dimensional image supply means is a two-dimensional image storage means for storing a two-dimensional image, the two-dimensional image stored in the past can also be used for surgery or the like.
[0010]
The invention according to claim 3 is characterized in that the two-dimensional image supply means is a two-dimensional image photographing means for photographing and supplying a two-dimensional image.
According to the third aspect of the present invention, since the two-dimensional image supply means is a two-dimensional image photographing means (for example, a video camera) for photographing and supplying a two-dimensional image, a real-time two-dimensional image can be used for surgery or the like.
[0011]
According to a fourth aspect of the present invention, when the two-dimensional image and the corrected three-dimensional medical image are displayed simultaneously or combined on the display means, the two-dimensional image and the corrected three-dimensional medical image are displayed. And a synthesis area setting means for arbitrarily setting the synthesis area. According to the fourth aspect of the present invention, for example, as shown in FIG. 7A, it is possible to arbitrarily set the synthesis region of the two-dimensional image and the corrected three-dimensional medical image.
[0012]
In the invention according to claim 5, when the two-dimensional image and the corrected three-dimensional medical image are displayed simultaneously or combined on the display means, the two-dimensional image and the corrected three-dimensional medical image are displayed. And a composition ratio setting means for arbitrarily setting the composition ratio. According to the invention described in claim 5, the composition ratio (for example, density, color, etc.) of the two-dimensional image and the three-dimensional medical image can be arbitrarily set.
[0013]
According to a sixth aspect of the present invention, when the two-dimensional image and the corrected three-dimensional medical image are displayed simultaneously or combined on the display means, the two-dimensional image and the corrected three-dimensional medical image are displayed. If you specify a particular site on one of the images, characterized by comprising a mark display control means for displaying a mark on the other image corresponding to this specific site. According to the sixth aspect of the present invention, for example, as shown in FIG. 7B, when a desired position is indicated with a mouse cursor on the video camera image, the surface display image based on the corresponding three-dimensional medical image is displayed. A mark (for example, a + mark) is displayed at the location.
[0014]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, a medical image synthesizing apparatus of the present invention will be described based on the illustrated embodiment.
[0015]
(I) Hardware Configuration FIG. 1 is a block diagram showing the hardware configuration of this embodiment.
As shown in FIG. 1, a medical image synthesizer IG includes a system controller (CPU) 1 that manages the entire system, and two-dimensional image photographing that captures two-dimensional images such as a microscope image, an endoscopic image, and a video camera image. Unit 2, a position detection unit 3 for detecting the position of the two-dimensional image photographing unit 2 with respect to the subject, and optical distortion data specific to the two-dimensional image photographing unit (for example, a video camera) A strain data storage unit 4 and an image storage unit 5 for storing three-dimensional medical image data captured by a medical image diagnostic apparatus 12 such as an X-ray CT apparatus, an MRI apparatus, a SPECT apparatus, or a nuclear medicine apparatus. ing.
[0016]
Furthermore, the medical image composition apparatus IG includes a surface display image and a cross-sectional image (MPR image) used for image composition described below from the three-dimensional medical image data stored in the image storage unit 5 and an image processing unit 6. Coordinate transformation for coordinate transformation of a three-dimensional medical image (medical image data) stored in the image storage unit 5 so as to be at the same photographing position with respect to a photographing position of the two-dimensional image photographed by the two-dimensional image photographing unit 2 The image synthesizing unit 8 that performs distortion correction on the three-dimensional medical image after coordinate conversion and the coordinate conversion based on the optical distortion data, and combines the two-dimensional image and the three-dimensional medical image after distortion correction. An image display unit 9 for displaying an image synthesized by the image synthesis unit 8, a mouse 10 for selecting a synthesis area of the image displayed on the image display unit 9 (to be described below), and each device Connect the bus 11 etc. Eteiru. The medical image diagnostic apparatus 12 is connected online to the medical image synthesis apparatus IG.
[0017]
(II) Description of Operation Hereinafter, the operation of this embodiment will be described by dividing it into (1) coordinate transformation, (2) camera image distortion, (3) creation of composite image, and (4) image display example.
[0018]
(1) Coordinate conversion The outline of this coordinate conversion is as follows.
For example, a three-dimensional medical image and a two-dimensional image of the same part (for example, the head) of the same subject are compared and displayed. Assuming that the two-dimensional image is a temporal image, for example, it is difficult to compare unless the three-dimensional medical image is a temporal image taken from the same direction. Therefore, image conversion is performed so that the image extracted from the three-dimensional medical image becomes an image viewed from the same position (for example, the temporal region) with respect to the two-dimensional image.
[0019]
FIG. 2 is a conceptual diagram when coordinate conversion is performed so that the medical image (three-dimensional medical image) TD is an image viewed from the same position as the video camera image (two-dimensional image) SD.
As shown in FIG. 2, the medical image diagnostic apparatus 12 (see FIG. 1) captures the subject H as a continuous tomographic image (three-dimensional medical image). A coordinate system of “XYZ” is set for the three-dimensional medical image, as indicated by reference symbol U1.
On the other hand, when the video camera 2a is used as the two-dimensional image photographing unit 2, the coordinate system of "X'-Y'-Z '" is also used for the installation position of the camera 2a, as indicated by reference numeral V1. Set. If the Z′-axis of the camera 2a is taken in the direction of the subject H, the image of the subject H (the temporal image in this figure) is on the “X′-Y ′” coordinates as indicated by reference numeral V2. Exists.
[0020]
Since both the medical image (three-dimensional medical image) TD and the camera image (two-dimensional image) SD are images obtained for the same subject H, the “XYZ” coordinates and the “X′-Y ′” If a predetermined coordinate conversion is performed with respect to the “−Z ′” coordinate, a two-dimensional image corresponding to, for example, a video camera image can be extracted based on the three-dimensional medical image. This coordinate conversion is performed by the method proposed in Japanese Patent Application No. 7-337256.
[0021]
Here, a method of applying the coordinate transformation of Japanese Patent Application No. 7-337256 to this embodiment will be described.
The coordinate conversion unit 7 extracts the outer shape (outer shape contour) of the temporal region of the subject H from the three-dimensional medical image TD (see FIG. 3B), and this extracted image and the video camera 2a are shooting in real time. The positional relationship between the three-dimensional medical image TD and the two-dimensional image SD is obtained by obtaining the correlation with the external shape (shape information) of the subject H (see FIG. 3A).
[0022]
Next, how to obtain this positional relationship will be described.
First, in order to extract the outer contour (FIG. 3B) of the subject H from the three-dimensional medical image TD, the substantial part of the subject H and other background ( Distinguish the air part. The threshold is determined by obtaining a histogram of the three-dimensional medical image TD (graphing the distribution of the number of pixels with respect to the signal value of the image) and calculating from the following formula using the mode value of the background portion and the half-value width of the peak of the background portion. To do.
[0023]
[Expression 1]
Threshold = mode value of background portion + k × half-value width k of peak value of background portion: experience value When the signal value of the substantial part of the subject H is larger than the signal value of the background,
k = 2.5.
[0024]
By assigning “1” to a pixel having a value higher than the threshold in the three-dimensional medical image TD and assigning “0” to a pixel having a value lower than the threshold, the substantial part and the background (air) part of the subject H are “ They are distinguished by a value of “1” or “0”.
By extracting the boundary between “1” and “0” of the three-dimensional medical image TD represented by “1” or “0”, the outer shape of the subject H can be extracted (see FIG. 3B). . The boundary extraction method is often introduced in literatures related to image processing.
[0025]
The extracted outline of the subject H (see FIG. 3B) is expressed as a set of pixels on the three-dimensional medical image TD. The coordinates of the contour pixel are obtained as follows according to the coordinate system of the three-dimensional medical image TD.
As shown in FIG. 4, the coordinates (0x, 0y, 0z) of the first pixel of the image and 1 in the column direction
[Outside 1]
Figure 0003910239
If it is at the j-th position in the eye and row direction, the coordinates of this pixel are
(0x + Cx * i + Rx * j, 0y + Cy * i + Ry * j,
0z + Cz * i + Rz * j)
It becomes.
[0026]
The correlation between the outer shape on the image and the outer shape of the subject H is calculated as the average or the sum of the squares of the distances between points from each outer contour point on the image to the closest measured outer shape. Therefore, the smaller the correlation value, the more the two outer shapes match.
[0027]
It should be noted that the areas for comparison and correlation must be the same. For example, when the imaging region of the three-dimensional medical image TD covers the entire head from the lower jaw part to the top of the head, the shape measurement can be performed only in a limited region of the front part of the head from the nose to the top of the head. There may be no shape information corresponding to the contour points extracted from the three-dimensional medical image TD. At this time, in order to correspond to the measured shape information, it is necessary to limit the contour points for calculating the correlation.
[0028]
For this, a three-dimensional surface display image (see FIG. 4) created from the three-dimensional medical image TD to be used is created by the image processing unit 6, and this three-dimensional surface display image displayed by the operator on the image display unit 9. The area is selected while watching. As a region selection means, a region (circular, rectangular, free shape) on the image display unit 9 is designated by the mouse 10 shown in FIG.
[0029]
Next, based on the correlation between the shapes obtained as described above, the positional relationship between the three-dimensional medical image TD and the two-dimensional image SD is derived as follows.
The three-dimensional medical image TD exists in a coordinate system (XYZ) based on the medical image diagnostic apparatus 12, and the two-dimensional image SD exists in a coordinate system (X′-Y′-Z ′) based on the camera 2a. .
[0030]
[Outside 2]
Figure 0003910239
In the case where all of the standard systems are coordinate systems of actual dimensions, the transformation matrix is expressed by rotation in the triaxial direction and translation in the triaxial direction.
[0031]
[Outside 3]
Figure 0003910239
Here, P i is the contour pixel extracted from the three-dimensional medical image TD, and the coordinate of this pixel is the position vector.
Figure 0003910239
The point of the measurement outline closest to the coordinates of the selected point is searched, and the distance between the two points is calculated.
[0032]
This processing is performed for all the contour pixels in the designated area, and the correlation value C is calculated.
[0033]
[Outside 5]
Figure 0003910239
Is called optimization, and various methods such as the steepest descent method, the annealing method, and the downhill simplex method have been proposed so far. Any of these already proposed methods may be used as an optimization method.
[0034]
(2) Camera Image Distortion The camera image (two-dimensional image) SD includes distortion of the lens system and distortion caused by perspective projection determined by the focal position (for example, the distance looks small and the distance looks large). Accordingly, the coordinate transformation between the coordinate system of the three-dimensional medical image TD and the coordinate system of the camera image SD is not a transformation that can be simply rotated and translated, but a transformation that includes distortion correction.
In general, various methods have been proposed for geometric correction of the camera image SD in the field of computer vision such as photo measurement and robot eyes. In many of these methods, a known pattern is photographed for each focal length of each camera, and a correction parameter is mathematically obtained from the shape of the captured pattern (referred to as camera calibration). Since this method is a general method, the method is not particularly limited in this embodiment.
[0035]
(3) Creation of Composite Image FIG. 5 is a flowchart showing a flow of creating a composite image according to this embodiment.
A distortion correction parameter for a lens system such as a microscope, an endoscope, and a video camera to be used is calculated in advance for each focal length, and stored in the distortion data storage unit 4 as a camera information table shown in FIG.
[0036]
As shown in FIG. 5, when the position of the two-dimensional image photographing unit (video camera) 2a is detected by the position detection unit 3 and the position information is input (step S1), the coordinate conversion unit 7 displays the three-dimensional medical image. A transformation matrix between the TD coordinate system (XYZ) and the video camera 2a coordinate system (X′-Y′-Z ′) is calculated (step S2). This calculation is performed by the method described in [(1) Coordinate transformation].
[0037]
Next, when input of camera focus information is instructed (step S3), a correction parameter is read out from a previously created camera information table (see FIG. 6) (step S4). The distortion of the image TD is corrected, and a corrected three-dimensional medical image TDH is generated (as described above, a general distortion correction method may be used).
The corrected 3D medical image TDH and the camera image SD are overlapped by the image combining unit 8 to create a combined image (step S7).
[0038]
(4) Image Display Example A specific example in which the image composition unit 8 performs the process of superimposing the corrected three-dimensional medical image TDH and the camera image SD on the basis of the above flow and further displays the image on the image display unit 9 will be described. .
[0039]
(1) FIGS. 7A and 7B show a surface display image (shown by diagonal lines) based on a three-dimensional medical image (medical image) TD created by performing the above-described coordinate transformation and distortion correction, and a camera image ( It is a composite display example with a two-dimensional image) SD.
[0040]
FIG. 7A shows an example in which both the surface display image and the camera image (two-dimensional image) are displayed in a superimposed manner, and the region to be superimposed is set by designation with a mouse cursor. The shape of the overlapping area can be arbitrarily set to a rectangle, a circle, a polygon, etc., and the overlapping area is displayed as a semi-transparent composite image of both images. The transparency / opacity of both images can be continuously changed by moving the synthesis level slider 21 left and right.
[0041]
FIG. 7B shows an example in which both images are displayed side by side. When the mouse cursor is moved on one of the images, a mark indicating the same position as the mouse cursor is displayed on the other image (indicated by a + mark). In this way, the positional relationship between the two images can be understood at a glance.
[0042]
(2) FIGS. 8A and 8B are examples of composite display of a cross-sectional display image based on a three-dimensional medical image created by performing coordinate conversion and distortion correction, and a camera image.
[0043]
FIG. 8A shows an example in which both images are displayed in an overlapped manner, and the overlapping region is set by a mouse cursor and sliders 22a, 22b, and 22c corresponding to the xyz axes, respectively.
In FIG. 8A, the cross-sectional shape to be cut out is a box shape (cube), but it may be a cylindrical shape or the like.
Also, the synthesis area can be rotated by mouse dragging.
[0044]
FIG. 8B shows an example in which both images are displayed side by side.
In FIG. 8B, when the mouse cursor is moved on the camera image, orthogonal sections A and B (A section and B section) passing through the position specified by the mouse cursor and a section perpendicular to the direction of the camera image are displayed simultaneously. (Shown with diagonal lines).
Further, the position of the vertical section (the distance from the camera 2 a in FIG. 2) can be set by operating the slider 23.
Further, a mark (in this example, a + mark) is displayed on each cross section at a position corresponding to the mouse cursor.
[0045]
(3) FIG. 9 shows a guide screen (indicated by reference symbol M1) indicating the camera direction and the position and depth of the composite area in the case of superimposed display of a camera image and a cross-sectional image or surface display image (indicated by reference symbol L1). This is an example in which (
[0046]
In FIG. 9, in the medical image (shown by diagonal lines in this case, a cross-sectional image) on the overlay screen L1, it is unknown how deep the head is when viewed from the direction of the eyes and nose. Therefore, a surface display image of the temporal region is prepared as the guide screen M1, and the installation direction of the camera 2a is indicated by an arrow, and the depth of the cross-sectional image is indicated by a symbol K11 by a U-shaped mark K1.
In this way, it is possible to know at a glance how deep the medical image (surface display image or cross-sectional image) is.
[0047]
(4) FIG. 10 shows that when a camera image and a surface display image are displayed in parallel (reference characters L2 and M2), for example, when a planned line 31 for surgery is drawn on one image, In the example, the same schedule line 32 is drawn.
By the display as described in (1) to (4) above, an image of the subject H (two-dimensional image) obtained by the camera 2a and a medical image (three-dimensional medical image) TD taken in advance are displayed. Since it can be observed in association with each other without any deviation or error, it is effective in assisting surgery.
[0048]
In the present embodiment, the synthesis process of the real-time 2D image captured by the 2D image capturing unit (video camera) 2 and the 3D medical image stored in the image storage unit 4 has been described. However, instead of a real-time two-dimensional image, a two-dimensional image photographed by a two-dimensional image photographing means (endoscope, microscope, video camera, etc.) is stored in advance in a two-dimensional image storage means (not shown). Alternatively, the two-dimensional image may be taken out from the two-dimensional image storage means and the above-described synthesis process may be performed with the three-dimensional medical image.
[0049]
【The invention's effect】
As described above, according to the invention described in each claim, when a three-dimensional medical image and a two-dimensional image are displayed simultaneously or synthesized , a shift between images caused by the two-dimensional image is suppressed , and the subject It is possible to provide a medical image synthesizer that can easily obtain useful information on a desired affected part of a patient.
[Brief description of the drawings]
FIG. 1 is a system configuration diagram of an embodiment of the present invention.
FIG. 2 is a conceptual diagram showing coordinate transformation in the same embodiment example;
3A and 3B are diagrams of a subject in the same embodiment example, where FIG. 3A is a diagram illustrating shape information captured by a video camera, and FIG. 3B is a diagram illustrating an outer contour extracted from a three-dimensional medical image; .
FIG. 4 is a diagram showing a coordinate system of medical images in the prior application.
FIG. 5 is a flowchart showing a composite image generation process in the embodiment.
FIG. 6 is an example of a camera correction information table in the embodiment.
FIG. 7 is a diagram for explaining synthesis of a camera image and a surface display image in the embodiment.
FIG. 8 is a diagram for explaining synthesis of a camera image and a cross-sectional image in the embodiment.
FIG. 9 is a diagram for explaining how deep a cross-sectional image is in a surface display image when a camera image and a medical image (cross-sectional image) are combined in the embodiment.
FIG. 10 is a diagram for explaining a state in which an operation schedule line is automatically drawn on a corresponding surface display image when an operation schedule line is drawn on the camera image in the embodiment.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 System controller 2 Two-dimensional image imaging part 3 Position detection part 4 Distortion data storage part 5 Image storage part 6 Image processing part 7 Coordinate conversion part 8 Image composition part 9 Image display part 10 Mouse 11 Bus 12 Medical image diagnostic apparatus

Claims (8)

医用画像診断装置によって撮影された被検体の3次元医用画像を記憶する3次元医用画像記憶手段と、
前記被検体と同一被検体の2次元画像を供給する2次元画像供給手段と、
この2次元画像供給手段から供給される2次元画像の前記被検体に対する位置を検出する位置検出手段と、
この位置検出手段が検出した前記被検体の位置に対して、同位置になるように前記3次元医用画像を座標変換する座標変換手段と、
前記2次元画像供給手段から供給される2次元画像の固有の透視投影による歪みに関するデータを記憶する歪みデータ記憶手段と、
この歪みデータ記憶手段に記憶された歪みデータに基づき、前記座標変換後の3次元医用画像をゆがみ補正する3次元医用画像補正手段と、
この3次元医用画像補正手段とにより補正された3次元医用画像と2次元画像供給手段から供給される2次元画像とを同時または合成して表示する表示手段とを備えたことを特徴とする医用画像合成装置。
Three-dimensional medical image storage means for storing a three-dimensional medical image of a subject imaged by the medical image diagnostic apparatus;
Two-dimensional image supply means for supplying a two-dimensional image of the same subject as the subject;
Position detection means for detecting the position of the two-dimensional image supplied from the two-dimensional image supply means with respect to the subject;
Coordinate conversion means for converting the coordinates of the three-dimensional medical image so as to be the same position as the position of the subject detected by the position detection means;
Distortion data storage means for storing data relating to distortion caused by the inherent perspective projection of the two-dimensional image supplied from the two-dimensional image supply means;
3D medical image correction means for correcting distortion of the 3D medical image after the coordinate conversion based on the distortion data stored in the distortion data storage means;
A medical device comprising: a display means for displaying a 3D medical image corrected by the 3D medical image correcting means and a 2D image supplied from the 2D image supply means simultaneously or in combination. Image composition device.
前記2次元画像供給手段は、2次元画像を記憶する2次元画像記憶手段であることを特徴とする請求項1記載の医用画像合成装置。  2. The medical image synthesizing apparatus according to claim 1, wherein the two-dimensional image supply unit is a two-dimensional image storage unit that stores a two-dimensional image. 前記2次元画像供給手段は、2次元画像を撮影し供給する2次元画像撮影手段であることを特徴とする請求項1記載の医用画像合成装置。  2. The medical image synthesizing apparatus according to claim 1, wherein the two-dimensional image supply means is a two-dimensional image photographing means for photographing and supplying a two-dimensional image. 前記表示手段に前記2次元画像と補正後の3次元医用画像とを同時または合成して表示する際に、前記2次元画像と補正後の3次元医用画像との合成領域を任意に設定する合成領域設定手段を備えたことを特徴とする請求項1乃至請求項3記載の医用画像合成装置。When the two-dimensional image and the corrected three-dimensional medical image are displayed simultaneously or combined on the display means, a combining region for arbitrarily setting a combining region of the two-dimensional image and the corrected three-dimensional medical image 4. The medical image synthesizing apparatus according to claim 1, further comprising an area setting unit. 前記表示手段に前記2次元画像と補正後の3次元医用画像とを同時または合成して表示する際に、前記2次元画像と補正後の3次元医用画像との合成割合を任意に設定する合成割合設定手段を備えたことを特徴とする請求項1乃至請求項3記載の医用画像合成装置。A composition for arbitrarily setting a composition ratio of the two-dimensional image and the corrected three-dimensional medical image when the two-dimensional image and the corrected three-dimensional medical image are displayed on the display means simultaneously or combined. 4. The medical image composition apparatus according to claim 1, further comprising a ratio setting unit. 前記表示手段に前記2次元画像と補正後の3次元医用画像とを同時または合成して表示する際に、前記2次元画像と補正後の3次元医用画像いずれか一方の画像上で特定の部位を指定した場合に、この特定部位に対応する他方の画像上にマークを表示させるマーク表示制御手段を備えたことを特徴とする請求項1乃至請求項3記載の医用画像合成装置。When the two-dimensional image and the corrected three-dimensional medical image are displayed simultaneously or combined on the display means, a specific part on one of the two-dimensional image and the corrected three-dimensional medical image is displayed. The medical image composition apparatus according to claim 1, further comprising: a mark display control unit that displays a mark on the other image corresponding to the specific part when an image is designated. 前記表示手段に前記2次元画像と補正後の3次元医用画像から作成した少なくとも1つの断面像とを同時または合成して表示することを特徴とする請求項1乃至請求項3記載の医用画像合成装置。4. The medical image composition according to claim 1, wherein the two-dimensional image and at least one cross-sectional image created from the corrected three-dimensional medical image are displayed on the display means simultaneously or in combination. apparatus. 前記表示手段に前記2次元画像の撮影の向きまたは深さを示すガイド画面を表示することを特徴とする請求項1乃至請求項3記載の医用画像合成装置。4. The medical image synthesizing apparatus according to claim 1, wherein a guide screen indicating a shooting direction or depth of the two-dimensional image is displayed on the display means.
JP30327096A 1996-11-14 1996-11-14 Medical image synthesizer Expired - Lifetime JP3910239B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP30327096A JP3910239B2 (en) 1996-11-14 1996-11-14 Medical image synthesizer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP30327096A JP3910239B2 (en) 1996-11-14 1996-11-14 Medical image synthesizer

Publications (2)

Publication Number Publication Date
JPH10143652A JPH10143652A (en) 1998-05-29
JP3910239B2 true JP3910239B2 (en) 2007-04-25

Family

ID=17918944

Family Applications (1)

Application Number Title Priority Date Filing Date
JP30327096A Expired - Lifetime JP3910239B2 (en) 1996-11-14 1996-11-14 Medical image synthesizer

Country Status (1)

Country Link
JP (1) JP3910239B2 (en)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4342016B2 (en) * 1999-01-06 2009-10-14 株式会社日立メディコ Image display device
US6298148B1 (en) * 1999-03-22 2001-10-02 General Electric Company Method of registering surfaces using curvature
JP2001022964A (en) * 1999-06-25 2001-01-26 Terarikon Inc Three-dimensional image display device
US6466638B1 (en) * 2000-02-11 2002-10-15 Kabushiki Kaisha Toshiba Image mapping method and system
JP4795527B2 (en) * 2000-11-24 2011-10-19 株式会社東芝 X-ray diagnostic imaging system
JP2002224138A (en) * 2001-02-02 2002-08-13 Olympus Optical Co Ltd Surgery navigation instrument
JP4603195B2 (en) * 2001-06-05 2010-12-22 イマグノーシス株式会社 Medical three-dimensional image display control device and display program
JP4110457B2 (en) * 2002-06-05 2008-07-02 株式会社日立メディコ Medical diagnostic imaging equipment
DE10243162B4 (en) * 2002-09-17 2005-10-06 Siemens Ag Computer-aided display method for a 3D object
JP2007244746A (en) * 2006-03-17 2007-09-27 Olympus Medical Systems Corp Observation system
JP2009273521A (en) * 2008-05-12 2009-11-26 Niigata Univ Navigation system for arthroscopical surgery
JP2011525271A (en) * 2008-05-23 2011-09-15 ザ オーストラリアン ナショナル ユニヴァーシティ Image data processing
JP5820467B2 (en) * 2010-04-20 2015-11-24 イメージング・サイエンシィズ・インターナショナル・エルエルシー Artifact reduction and removal from dental 3D X-ray data sets by using surface scan information
US9684952B2 (en) 2010-04-20 2017-06-20 Dental Imaging Technologies Corporation Alignment of mixed-modality data sets for reduction and removal of imaging artifacts
CN104812298B (en) * 2012-11-22 2018-02-16 东芝医疗系统株式会社 Image processing apparatus, MR imaging apparatus and image processing method
JP6290723B2 (en) * 2014-06-23 2018-03-07 公立大学法人公立はこだて未来大学 Surgery support device and surgery support system
US10062200B2 (en) * 2015-04-03 2018-08-28 Dental Imaging Technologies Corporation System and method for displaying volumetric images
US9560959B1 (en) * 2015-09-18 2017-02-07 Novartis Ag Control of scanning images during vitreoretinal surgery
JP6806655B2 (en) * 2017-10-10 2021-01-06 株式会社日立製作所 Radiation imaging device, image data processing device and image processing program
JP7293814B2 (en) 2019-04-01 2023-06-20 株式会社リコー Biological information measuring device, biological information measuring method and program

Also Published As

Publication number Publication date
JPH10143652A (en) 1998-05-29

Similar Documents

Publication Publication Date Title
JP3910239B2 (en) Medical image synthesizer
US10706610B2 (en) Method for displaying an object
US11310480B2 (en) Systems and methods for determining three dimensional measurements in telemedicine application
JP6463038B2 (en) Image alignment apparatus, method and program
US6381302B1 (en) Computer assisted 2D adjustment of stereo X-ray images
US8147503B2 (en) Methods of locating and tracking robotic instruments in robotic surgical systems
JP6083103B2 (en) Image complementation system for image occlusion area, image processing apparatus and program thereof
EP2372660A2 (en) Projection image generation apparatus and method, and computer readable recording medium on which is recorded program for the same
WO2021111223A1 (en) Registration of an image with a tracking system
JP4834424B2 (en) Information processing apparatus, information processing method, and program
JP2010274044A (en) Surgery support apparatus, surgery support method, and surgery support program
US10078906B2 (en) Device and method for image registration, and non-transitory recording medium
Wang et al. Gradient-based differential approach for 3-D motion compensation in interventional 2-D/3-D image fusion
CN111658142A (en) MR-based focus holographic navigation method and system
US20210128243A1 (en) Augmented reality method for endoscope
JP5652994B2 (en) X-ray diagnostic equipment
WO2022190366A1 (en) Shape measurement system for endoscope and shape measurement method for endoscope
JP6476125B2 (en) Image processing apparatus and surgical microscope system
JP6392192B2 (en) Image registration device, method of operating image registration device, and program
JP4187830B2 (en) Medical image synthesizer
CN110650686B (en) Device and corresponding method for providing spatial information of an interventional device in a live 2D X radiographic image
KR102534981B1 (en) System for alignmenting patient position and monitoring with surface image guidance
Wang et al. Endoscopic video texture mapping on pre-built 3-D anatomical objects without camera tracking
Fuertes et al. Augmented reality system for keyhole surgery-performance and accuracy validation
JP2006020746A (en) Image display device

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20050427

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20050620

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070124

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100202

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110202

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120202

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130202

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140202

Year of fee payment: 7

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term