JP5354494B2 - 3D image generation apparatus, 3D image generation method, and program - Google Patents
3D image generation apparatus, 3D image generation method, and program Download PDFInfo
- Publication number
- JP5354494B2 JP5354494B2 JP2009103217A JP2009103217A JP5354494B2 JP 5354494 B2 JP5354494 B2 JP 5354494B2 JP 2009103217 A JP2009103217 A JP 2009103217A JP 2009103217 A JP2009103217 A JP 2009103217A JP 5354494 B2 JP5354494 B2 JP 5354494B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- dimensional image
- dimensional
- coordinates
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Analysis (AREA)
- Endoscopes (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Generation (AREA)
Description
本発明は、2次元画像から3次元画像を生成する3次元画像生成装置、3次元画像生成方法、及びその方法をコンピュータに実行させるプログラムに関する。 The present invention relates to a three-dimensional image generation apparatus that generates a three-dimensional image from a two-dimensional image, a three-dimensional image generation method, and a program that causes a computer to execute the method.
従来から、内視鏡により撮像された画像が医療分野などで利用されている。内視鏡により撮像された画像は、視点が固定されているため、視野が狭い。 Conventionally, an image captured by an endoscope has been used in the medical field or the like. The image captured by the endoscope has a narrow field of view because the viewpoint is fixed.
一方、呼吸器・消化器・脳外科などの臨床現場では、CTやMRIで取得した連続画像を用いて、3次元画像(「仮想内視鏡画像」と言う。)が生成されている。仮想内視鏡画像は、視点が自由で、死角を無効にできるという利点がある。 On the other hand, in clinical sites such as respiratory organs, digestive organs, and brain surgery, three-dimensional images (referred to as “virtual endoscopic images”) are generated using continuous images acquired by CT or MRI. The virtual endoscopic image has an advantage that the viewpoint is free and the blind spot can be invalidated.
仮想内視鏡画像の解像度はCTやMRIの空間解像度に依存しているため、CTやMRIから生成された仮想内視鏡画像は実画像に比べると劣る。そのため、例えば、仮想内視鏡画像を見ても、5mm以下の病変を検出することができない。また、CTやMRIから生成された仮想内視鏡画像の場合、色情報がない。そのため、例えば、CTやMRIから生成された仮想内視鏡画像を用いて、上皮内癌や浸潤癌の診断をすることは難しい。このように、従来の仮想内視鏡画像は、解像度が低く、色情報もないため、有用性が低いという問題があった。 Since the resolution of the virtual endoscopic image depends on the spatial resolution of CT or MRI, the virtual endoscopic image generated from CT or MRI is inferior to the actual image. Therefore, for example, even if a virtual endoscopic image is viewed, a lesion of 5 mm or less cannot be detected. In the case of a virtual endoscopic image generated from CT or MRI, there is no color information. Therefore, it is difficult to diagnose intraepithelial cancer and invasive cancer using, for example, virtual endoscopic images generated from CT or MRI. As described above, the conventional virtual endoscopic image has a problem of low usefulness because it has low resolution and no color information.
本発明は、上記問題を解決するものであって、解像度が高く且つ色情報を備えた有用性の高い3次元画像(例えば、仮想内視鏡画像)を生成する3次元画像生成装置、3次元画像生成方法、及びその方法をコンピュータに実行させるプログラムを提供することを目的とする。 The present invention solves the above-described problem, and is a three-dimensional image generation apparatus that generates a highly useful three-dimensional image (for example, a virtual endoscopic image) having high resolution and color information. An object is to provide an image generation method and a program for causing a computer to execute the method.
本発明に係る第2の3次元画像生成装置は、3次元形状を有する被写体の2次元画像を入力する入力手段と、入力された2次元画像を格納する記憶手段と、記憶手段から2次元画像を読み出し、読み出した2次元画像から被写体の3次元画像を生成する制御手段とを有する。制御手段は、2次元画像内の各画素について、青の輝度情報と緑の輝度情報との差分を求め、その差分に基づき各画素の第3の座標軸上の座標を算出して3次元座標を求め、3次元座標に基づいて被写体の3次元画像を生成する。 A second 3D image generation apparatus according to the present invention includes an input unit that inputs a 2D image of a subject having a 3D shape, a storage unit that stores the input 2D image, and a 2D image from the storage unit. And a control means for generating a three-dimensional image of the subject from the read two-dimensional image. The control means obtains a difference between the blue luminance information and the green luminance information for each pixel in the two-dimensional image, calculates a coordinate on the third coordinate axis of each pixel based on the difference, and obtains the three-dimensional coordinate. A three-dimensional image of the subject is generated based on the three-dimensional coordinates.
本発明に係る第2の3次元画像生成方法は、情報処理装置を用いて3次元形状を有する被写体の2次元画像から3次元画像を生成する方法である。その方法は、情報処理装置の制御手段が、被写体を撮像した2次元画像内の各画素について、青の輝度情報と緑の輝度情報との差分を求め、差分に基づき各画素の第3の座標軸上の座標を算出して、3次元座標を求めるステップと、2次元画像内の各画素の3次元座標に基づいて被写体の3次元画像を生成するステップとを含む。 The second three-dimensional image generation method according to the present invention is a method for generating a three-dimensional image from a two-dimensional image of a subject having a three-dimensional shape using an information processing apparatus. In the method, the control means of the information processing apparatus obtains a difference between the blue luminance information and the green luminance information for each pixel in the two-dimensional image obtained by imaging the subject, and based on the difference, the third coordinate axis of each pixel. Calculating upper coordinates to obtain three-dimensional coordinates; and generating a three-dimensional image of the subject based on the three-dimensional coordinates of each pixel in the two-dimensional image.
本発明によれば、2次元画像の輝度情報を用いて3次元座標を算出し、算出した3次元座標に基づいて3次元モデルを生成して、その3次元モデルに2次元画像のテクスチャを貼り付けている。よって、2次元画像の解像度及び色情報がそのまま3次元画像に適用される。具体的には、例えば、内視鏡を用いて撮像した画像から得られる解像度及び色情報がそのまま3次元画像に適用される。そのため、解像度が高く且つ色情報を備えた有用性の高い3次元画像を生成することができる。 According to the present invention, three-dimensional coordinates are calculated using luminance information of a two-dimensional image, a three-dimensional model is generated based on the calculated three-dimensional coordinates, and a texture of the two-dimensional image is pasted on the three-dimensional model. Attached. Therefore, the resolution and color information of the two-dimensional image are applied to the three-dimensional image as they are. Specifically, for example, resolution and color information obtained from an image captured using an endoscope is applied to a three-dimensional image as it is. Therefore, a highly useful three-dimensional image having high resolution and color information can be generated.
《実施形態1》
本発明の実施形態1の3次元画像生成装置は、2次元画像から3次元画像を生成する。具体的には、本実施形態においては、内視鏡を用いて撮影された映像(「内視鏡画像」と言う。)を平面的に展開することにより2次元画像を生成し、その2次元画像を用いて元の内視鏡画像を再現した画像である仮想内視鏡画像(3次元画像)を生成する。より具体的には、本実施形態においては、2次元画像の被写体の形状が事前に分かっており、その被写体に応じた計算式を用いて、3次元形状を復元する。
Embodiment 1
The three-dimensional image generation apparatus according to the first embodiment of the present invention generates a three-dimensional image from a two-dimensional image. Specifically, in the present embodiment, a two-dimensional image is generated by planarly developing a video imaged using an endoscope (referred to as an “endoscopic image”), and the two-dimensional image is generated. A virtual endoscopic image (three-dimensional image) that is an image obtained by reproducing the original endoscopic image is generated using the image. More specifically, in this embodiment, the shape of the subject of the two-dimensional image is known in advance, and the three-dimensional shape is restored using a calculation formula corresponding to the subject.
1.構成
図1に、本発明の実施形態1の3次元画像生成装置の構成を示す。本実施形態の3次元画像生成装置は、内視鏡スコープにより撮影された画像から内視鏡画像データを生成する内視鏡装置200と、内視鏡画像データから2次元展開画像を生成するとともに、その2次元展開画像から3次元画像を生成する情報処理装置100と、を有する。
1. Configuration FIG. 1 shows a configuration of a three-dimensional image generation apparatus according to Embodiment 1 of the present invention. The three-dimensional image generation apparatus according to the present embodiment generates an
情報処理装置100は、例えば、パーソナルコンピュータである。情報処理装置100は、内視鏡装置200から画像データを受けて2次元展開画像を生成するとともに、2次元展開画像から3次元画像を生成する情報処理部11と、2次元画像や3次元画像を表示する表示部(例えば、ディスプレイ)12と、ユーザからの情報処理部11や表示部12に対する指令を入力する操作部(マウス13a及びキーボード13b)と、を備える。
The
情報処理部11は、2次元画像や3次元画像のデータの送受信を外部と行う入出力インターフェース(I/F)11aと、2次元画像及び2次元画像から変換して生成した3次元画像を記憶する記憶部11bと、記憶部11bに記憶されている2次元画像や入出力インターフェース11aを介して外部から読み込んだ2次元画像から3次元画像を生成する制御部11cと、を有する。
The information processing section 11 stores an input / output interface (I / F) 11a that externally transmits and receives 2D images and 3D image data, and 3D images generated by converting 2D images and 2D images. And a control unit 11c that generates a three-dimensional image from the two-dimensional image stored in the
内視鏡装置200は、管状構造物内に挿入されて管内面を撮像する内視鏡スコープ21と、内視鏡スコープ21を制御するとともに、内視鏡スコープ21を介して入力される信号に基づきビデオファイル(内視鏡画像)を作成する制御ユニット22と、を有している。内視鏡装置200は、体内の腔所を観察するための光学系を組み込んだ医療機器である。
The
制御ユニット22は、そのユニット22内の各構成を制御する制御部22aと、内視鏡スコープ21を介して入力される信号に基づき管状構造物内面のビデオファイルを作成する信号処理部22bと、内視鏡スコープ21の先端部から観察対象に対して照射される照明光の光源である光源部22cと、を備えている。制御部22aは、ユーザの操作に応じて、内視鏡スコープ21による撮像や照明のオンオフ切換えを制御したり、光源部22cから内視鏡スコープ21に供給される光量を調節したりする。
The
内視鏡スコープ21は、対物レンズと、一対の照明用の光ファイバと、鉗子チャンネルや吸引チャンネル等の操作チャンネルと、を含み、それらが内視鏡スコープ21の先端部においてそれぞれ露出するように設けられている。なお、かかる構成は、従来周知であり、また、内視鏡スコープ21はこの構成に限定されることなく、例えば、単一の又は3つ以上の照明用の光ファイバが設けられたものが採用されてもよい。
The
上記のように構成される情報処理装置100及び内視鏡装置200は協働して、国際公開WO2007/139187パンフレットに開示された画像構築技術に記載の動作を行って、管状構造物の内面を撮像し、複数フレーム画像から構成される2次元画像を生成する。
The
情報処理装置100と内視鏡装置200は、例えばUSBケーブル等のケーブル50を介して接続される。情報処理装置100と内視鏡装置200との間では、内視鏡装置200により生成された2次元画像を情報処理装置100に伝送したり、情報処理装置100から内視鏡装置200へコマンド信号を伝送したりすることができる。情報処理装置100と内視鏡装置200との間にビデオキャプチャボードを介在させてもよい。
The
なお、本実施形態においては、内視鏡装置200により撮影される内視鏡画像から3次元画像を生成する場合を例示しているため、3次元画像生成装置は内視鏡装置200を含んでいるが、2次元画像から3次元画像の生成は情報処理装置100だけで実行できるため、3次元画像生成装置は内視鏡装置200を必ずしも備える必要はない。
Note that, in the present embodiment, a case where a three-dimensional image is generated from an endoscopic image photographed by the
2.動作
2−1.2次元画像の生成
情報処理装置100による2次元展開画像の生成処理は、国際公開WO2007/139187パンフレットに開示された画像構築技術を利用する。この画像構築技術について説明する。情報処理装置100は、内視鏡装置200から内視鏡スコープ21によって撮影された管状構造物内壁の内視鏡画像(動画または複数の静止画)を取得し、管状構造物内壁を平面的に展開した2次元展開画像を生成する。具体的には、図2(a)に示すように、動画または複数の静止画を構成する各画像F1、F2、F3、・・・上に試験線Rを設定し、その試験線R上の画素のみを抽出し、各画像について抽出した画素を一次元的に展開した画素列データ画像R1、R2、R3、・・・を生成する。その後、図2(b)に示すように、一次元的に展開した画素列データ画像R1、R2、R3、・・・を、連続する複数画像分合成することで管状構造物内壁を平面的に展開した2次元画像Pを生成する。図2(c)は、図2(a)に示すような連続した内視鏡画像から生成される、管状構造物内壁を平面的に展開した画像Pの一例を示した図である。このように、国際公開WO2007/139187パンフレットには、管状構造物内壁を平面的に展開した2次元画像Pを生成する技術が開示されている。本実施形態の情報処理装置100は上記の機能を有する。
2. Operation 2-1.2 Generation of Two-Dimensional Image The processing for generating a two-dimensional developed image by the
内視鏡装置200により生成された2次元画像(2次元展開画像)は、情報処理装置100に送信され、記憶部11bに格納される。
The two-dimensional image (two-dimensional developed image) generated by the
2−2.2次元画像から3次元画像への変換
図3及び図4を用いて、2次元画像から3次元画像を生成する方法について説明する。図3は、情報処理装置100の制御部11cによる3次元画像の生成方法を示すフローチャートである。図4は、2次元画像の被写体が管状構造物である場合の、2次元画像から3次元画像への変換方法を説明するための図である。図3を参照し、まず、生成する3次元画像(図4(b))に対し、ユーザが任意に指定する頂点数を制御部11cへ設定することにより、2次元画像の頂点数(すなわち、空間解像度)を設定する制御部11cは、設定された頂点数を入力する(S301)。ここでは、2次元画像の水平方向(図4(a)のU軸方向)と垂直方向(図4(a)のV軸方向)のそれぞれについての分割数が同時に設定される。制御部11cは、設定された頂点数(分割数)に基づいて、図4(a)に示すように、2次元画像を格子状に分割する(S302)。制御部11cは、格子状に分割された2次元画像の2次元座標(u,v)(テクスチャ座標)を設定する(S303)。制御部11cは、2次元画像における、各座標上の輝度情報を算出し、その輝度情報に基づいて、3次元座標(x、y、z)(モデル空間座標)を算出する(S304)。制御部11cは、3次元座標に基づいて、3次元モデルを生成する(S305)。「3次元モデル」は、図4(b)に示すように、近接3頂点で構成される三角形を連続した構成(TRIANGLE-STRIP)を備えた仮想3次元空間上に生成される物体のことである。制御部11cは、2次元座標と3次元座標に基づいて、3次元モデルに2次元画像のテクスチャを貼り付ける(S306)。図4(a)(b)においては、U軸をZ方向、V軸をX−Y平面の円周方向に割り当てることにより、2次元画像のテクスチャを3次元モデルに貼り付ける。
2-2.2 Conversion from a Two-Dimensional Image to a Three-Dimensional Image A method for generating a three-dimensional image from a two-dimensional image will be described with reference to FIGS. 3 and 4. FIG. 3 is a flowchart illustrating a method for generating a three-dimensional image by the control unit 11 c of the
以上のように、本実施形態では、2次元画像の輝度情報に基づいて2次元画像から3次元画像を生成する。 As described above, in the present embodiment, a three-dimensional image is generated from a two-dimensional image based on the luminance information of the two-dimensional image.
次に、図5及び図6を用いて、2次元画像の輝度情報から3次元座標を算出するステップ(S304)について、さらに詳細に説明する。図5は、情報処置装置100の制御部11cにより行われる、2次元画像の輝度情報に基づく3次元座標の算出方法を示すフローチャートである。図6は、3次元座標を求める際に使用される要素(引数)を説明するための図である。図5による3次元座標の算出方法と図6の説明図では、3次元画像の生成元となる2次元画像の被写体が管状構造物である場合、すなわち、内視鏡装置200により、管腔などの管状形状の画像が撮影され、その撮影された画像から生成された2次元画像を用いた場合を示している。
Next, the step (S304) of calculating the three-dimensional coordinates from the luminance information of the two-dimensional image will be described in more detail with reference to FIGS. FIG. 5 is a flowchart illustrating a method for calculating three-dimensional coordinates based on luminance information of a two-dimensional image, which is performed by the control unit 11c of the
図5を参照し、情報処理装置100の制御部11cは、2次元画像の各座標の輝度値Lを算出する(S501)。具体的には、輝度値Lは、NTSC係数による加重平均法を用いて、下記式(1)により算出される。
L=0.298912×R+0.586611×G+0.114478×B・・・(1)
(R:赤色の輝度値、G:緑色の輝度値、B:青色の輝度値)
Referring to FIG. 5, the control unit 11c of the
L = 0.298912 × R + 0.586611 × G + 0.114478 × B (1)
(R: red luminance value, G: green luminance value, B: blue luminance value)
制御部11cは、算出した輝度値Lに基づいて、内視鏡スコープ21の中心軸から観測点(組織)までの距離R’を算出する(S502)。このとき、図6に示すように、内視鏡スコープ21の中心軸から観測点までの距離R’は、内視鏡スコープ21の光ファイバ先端(以下、「光源」とも言う。)から観測点までの距離Rと比例関係にある。このため、内視鏡スコープ21の光ファイバの先端から観測点までの距離Rを頂点の輝度値Lを用いて算出して、算出した距離Rを、内視鏡スコープ21の中心軸から観測点までの距離R’の値として用いる。具体的には、以下の計算を行う。
Based on the calculated luminance value L, the control unit 11c calculates a distance R ′ from the central axis of the
頂点の輝度値Lと内視鏡スコープ21の光ファイバ先端から観測点までの距離Rとの関係は、下記式(2)で表される。
(kd:物体の拡散反射率、Iq:光源光度、θ:光線の入射角、γ:表示部のガンマ特性)
上記式(2)で示すように、本実施形態においては、内視鏡装置200のガンマ特性を考慮して、非線形な信号を線形な信号に補正するために、2次元画像の各画素の輝度値に対して、ガンマ補正を行っている。
The relationship between the luminance value L of the vertex and the distance R from the tip of the optical fiber of the
(K d : diffuse reflectance of object, I q : luminous intensity of light source, θ: incident angle of light, γ: gamma characteristic of display unit)
As shown by the above equation (2), in this embodiment, in order to correct a nonlinear signal to a linear signal in consideration of the gamma characteristics of the
上記式(2)において、光源光度Iqと物体の拡散反射率kdと光線の入射角θが未知であることから、これらの値を一定であると仮定すると、内視鏡スコープ21の中心軸から観測点までの距離R’は、以下の式(3)で表される。式(3)により、内視鏡スコープ21の中心軸から観測点までの距離R’を求める。
In the above formula (2), since the light source luminous intensity I q , the diffuse reflectance k d of the object, and the incident angle θ of the light ray are unknown, assuming that these values are constant, the center of the
輝度値Lのとりうる値の範囲は、「0.0〜1.0」である。上記式(3)により、距離R’を求めると、距離R’のとりうる範囲は「1.0〜∞」になる。これは、内視鏡スコープの光源から観測点までの距離Rが0.0以上であることに相反する。そこで、上記式(3)により距離R’を求めた後、制御部11cは、距離R’を補正して相対距離R”を算出する(S503)。相対距離R”は、具体的には、以下の処理(1)〜処理(3)を行うことにより求める。 The range of values that the luminance value L can take is “0.0 to 1.0”. When the distance R ′ is obtained by the above equation (3), the range that the distance R ′ can take is “1.0 to ∞”. This is contrary to the fact that the distance R from the light source of the endoscope scope to the observation point is 0.0 or more. Therefore, after obtaining the distance R ′ by the above equation (3), the control unit 11c calculates the relative distance R ″ by correcting the distance R ′ (S503). It calculates | requires by performing the following processes (1) -process (3).
処理1:「R’」を「R’−1.0」にシフトする。
(R’のとりうる範囲:「0.0〜∞」)
処理2:「R’−1.0」をR’値全体の最大値で割る。
(R’のとりうる範囲:「0.0〜1.0」)
処理3:「所定の最小値min(>0.0)〜1.0」の範囲内に圧縮する。
(R’のとりうる範囲:「min〜1.0」)
Process 1: “R ′” is shifted to “R′−1.0”.
(R ′ can take a range of “0.0 to ∞”)
Process 2: “R′−1.0” is divided by the maximum value of the entire R ′ value.
(R ′ can take a range of “0.0 to 1.0”)
Process 3: Compression is performed within a range of “predetermined minimum value min (> 0.0) to 1.0”.
(Range of R ′: “min to 1.0”)
このように、まず、輝度値L=1.0に対応する点(内視鏡に最も近い点)を、光源から距離「0」の地点に補正するため、距離R’値の集合全体を1.0シフトする(処理1)。これにより、R’のとりうる範囲は「0.0〜∞」になる。次に、距離R’の値をそれぞれR’値全体の最大値で割り、正規化する(処理2)。これにより、距離R’のとりうる範囲は「0.0〜1.0」になる。正規化した値R’では、光軸に最も近い点は「0」、すなわち、光軸と同じ位置に物体が存在することになる。しかし、内視鏡スコープ21には太さがあるため、光軸と同じ位置に物体が存在すること(すなわち、内視鏡スコープ径内に物体が侵入すること)は、不可能である。そこで、対象組織と内視鏡スコープ直径の比から、管腔中央部をスコープの進行領域として設定し、距離「0」の点をR’のとりうる範囲から除外する。これにより、R’のとりうる範囲は、所定の最小値min(>0.0)〜1.0」になる。このように補正された距離R’を、相対距離R”とする。なお、本実施形態において、距離R、R’、R”は、全て、絶対値ではなく相対的な距離を示している。
Thus, first, in order to correct the point corresponding to the luminance value L = 1.0 (the point closest to the endoscope) to a point at a distance “0” from the light source, the entire set of distance R ′ values is set to 1. .0 shift (process 1). As a result, the range that R ′ can take becomes “0.0 to ∞”. Next, each value of the distance R ′ is divided by the maximum value of the entire R ′ value and normalized (process 2). Thereby, the range which distance R 'can take becomes "0.0-1.0". In the normalized value R ′, the point closest to the optical axis is “0”, that is, the object exists at the same position as the optical axis. However, since the
次に、制御部11cは、円周方向の頂点数(円周方向空間分解能)から角度radを算出する(S504)。その後、所定の重みw1を用いて、制御部11cは、「R”×w1×sin(rad)」によりx座標を算出する(S505)。また、所定の重みw2を用いて、「R”×w2×cos(rad)」によりy座標を算出する(S506)。ここで、x座標の算出とy座標の算出で用いられる、重みw1,w2は、それぞれ任意に設定された値である。なお、重みw1,w2は同一の値であってもよい。最後に、長さ方向の頂点数(長さ方向空間分解能)からz座標を算出する(S507)。制御部11cは、全頂点について、3次元座標(x、y、z)を算出したかどうかを判断する(S508)。全頂点について、3次元座標を算出していなければ、ステップS501に戻り、全頂点について3次元座標を算出するまで、上記の処理S501〜507を繰り返す。 Next, the control unit 11c calculates the angle rad from the number of vertices in the circumferential direction (circumferential spatial resolution) (S504). Thereafter, using the predetermined weight w1, the control unit 11c calculates the x coordinate by “R” × w1 × sin (rad) ”(S505). Further, the y-coordinate is calculated by “R” × w2 × cos (rad) ”using the predetermined weight w2 (S506). Here, the weights w1 and w2 used in the calculation of the x coordinate and the calculation of the y coordinate are values set arbitrarily. The weights w1 and w2 may be the same value. Finally, the z coordinate is calculated from the number of vertices in the length direction (length direction spatial resolution) (S507). The controller 11c determines whether or not the three-dimensional coordinates (x, y, z) have been calculated for all vertices (S508). If the three-dimensional coordinates have not been calculated for all the vertices, the process returns to step S501, and the above processing S501 to 507 is repeated until the three-dimensional coordinates are calculated for all the vertices.
上記のようにして求められた3次元座標に基づいて3次元モデルが生成され、テクスチャが貼り付けられる。 A three-dimensional model is generated based on the three-dimensional coordinates obtained as described above, and a texture is pasted.
図7に、本実施形態の3次元画像生成装置により得られた3次元画像の一例を示す。図7(a)は、ヒトの大腸を内視鏡スコープ21によって撮像して得られた画像を示す。図7(b)は、情報処理装置100によって生成された2次元展開画像を示す。図7(c)は、情報処理装置100によって、2次元展開画像から生成された3次元画像(仮想内視鏡画像)を示す。図7(d)は、仮想内視鏡画像を回転させて表示した例(右方向から内腔左側面を観察する画像)を示す。図7(d)は、カリングモードの設定をオンにすることにより、手前の壁を自動的に消去し(表示しないようにし)、後方の壁面のみを表示させるようにしたものである。ここで、「カリングモード」は、3次元モデルにおいて個々のポリゴンが有する、表・裏の情報を読み取り、カメラに対して特定の側の表面を見せているポリゴンのみを描画するモードである。本実施形態の情報処理装置100により生成された3次元モデルでは、各ポリゴンは、管腔の中心軸に向いている面を表側と定義する。「カリングモード」を表面だけ描画させる設定下でオンにすることにより、カメラに裏側を見せているポリゴンを消し、後方の壁面を描画させることを可能とする。本実施形態の情報処理装置100により生成された3次元画像は、任意に回転させたり、任意の断面を表示させたりすることができる。
FIG. 7 shows an example of a three-dimensional image obtained by the three-dimensional image generation apparatus of this embodiment. FIG. 7A shows an image obtained by imaging the human large intestine with the
3.まとめ
本実施形態によれば、内視鏡画像から得られた2次元画像のテクスチャを用いて3次元画像を生成しているため、元のテクスチャの色情報が得られると共に高い解像度が得られる。そのため、本実施形態により生成された3次元画像は有用性が高い。よって、本実施形態により生成された3次元画像を用いて、組織全体の性状や立体的な組織間の位置関係などの把握を行うことが可能となる。また、任意の断面で画像を表示したり、対象臓器を任意に回転させながら全体を眺めたりすることにより、病変の検出精度が向上する。
3. Summary According to the present embodiment, since the three-dimensional image is generated using the texture of the two-dimensional image obtained from the endoscope image, the color information of the original texture can be obtained and high resolution can be obtained. Therefore, the three-dimensional image generated by the present embodiment is highly useful. Therefore, it is possible to grasp the properties of the entire tissue, the positional relationship between the three-dimensional tissues, and the like using the three-dimensional image generated according to the present embodiment. Moreover, the accuracy of detecting a lesion is improved by displaying an image with an arbitrary cross section or viewing the whole while arbitrarily rotating the target organ.
また、本実施形態によれば、輝度情報を用いて、元の形状を復元した3次元画像を生成している。すなわち、2次元画像の被写体の形状が事前に分かっている場合は、輝度情報に基づき計算式を用いて第3の座標(z軸座標)を算出することで、その3次元の形状に復元することができる。例えば、本実施形態のように、内視鏡スコープ21により撮像された実画像(内視鏡画像)から直接、3次元画像(仮想内視鏡画像)を生成することが可能となる。内視鏡スコープ21により撮像される実画像では視点が固定されており、視野が狭く、また関心領域の場所の特定が難しい。しかし、本実施形態によれば、視点の自由が利く3次元画像を生成できるため、視野が広くなり、且つ関心領域の場所を特定することが容易になる。これにより、医師等が、関心領域を自由な視点から観察することが可能になる。
Further, according to the present embodiment, a three-dimensional image in which the original shape is restored is generated using luminance information. That is, when the shape of the subject of the two-dimensional image is known in advance, the third coordinate (z-axis coordinate) is calculated using the calculation formula based on the luminance information, and the three-dimensional shape is restored. be able to. For example, as in this embodiment, a three-dimensional image (virtual endoscopic image) can be generated directly from a real image (endoscopic image) captured by the
なお、本実施形態において、図5のステップ(S505〜S507)に示す3次元座標の計算式「(x,y,z)=(R”×w1×sin(rad),R”×w2×cos(rad),z)」は、管状形状のものに適用されるものである。よって、他の形状の場合は他の計算式を用いて3次元座標を算出すればよい。すなわち、2次元画像の被写体の形状が事前に分かっている場合は、その被写体の形状に応じた計算式を用いることにより、3次元座標を算出し、3次元画像を生成することができる。 In this embodiment, the three-dimensional coordinate calculation formula “(x, y, z) = (R ″ × w1 × sin (rad), R ″ × w2 × cos” shown in steps (S505 to S507) in FIG. (Rad), z) "is applied to a tubular shape. Therefore, in the case of other shapes, the three-dimensional coordinates may be calculated using other calculation formulas. That is, when the shape of the subject of the two-dimensional image is known in advance, the three-dimensional image can be generated by calculating the three-dimensional coordinates by using a calculation formula corresponding to the shape of the subject.
《実施形態2》
本実施形態では、3次元座標の算出(S304)の別の方法を説明する。本実施形態の構成は、実施形態1と同様である。本実施形態では、2次元画像の被写体の形状が知られていない場合でも、画像の輝度情報に基づきz座標を算出する場合について説明する。具体的には、2次元画像に奥行き(z方向)を持たせることにより、2次元画像から3次元画像を生成する。より具体的には、3次元座標(x、y、z)を算出する際に、x座標及びy座標については、元の2次元座標の値(u,v)を用い、z座標のみを輝度値から算出する。なお、本実施形態において、3次元画像生成装置の構成は実施形態1と同一であるが、内視鏡画像200はなくてもよい。
<<
In the present embodiment, another method of calculating three-dimensional coordinates (S304) will be described. The configuration of this embodiment is the same as that of the first embodiment. In the present embodiment, a case where the z coordinate is calculated based on the luminance information of the image even when the shape of the subject of the two-dimensional image is not known will be described. Specifically, a three-dimensional image is generated from a two-dimensional image by giving a depth (z direction) to the two-dimensional image. More specifically, when calculating the three-dimensional coordinates (x, y, z), the values of the original two-dimensional coordinates (u, v) are used for the x-coordinate and y-coordinate, and only the z-coordinate is luminance. Calculate from the value. In the present embodiment, the configuration of the three-dimensional image generation apparatus is the same as that in the first embodiment, but the
図8に、本実施形態における3次元座標の算出のフローチャートを示す。情報処理装置100の制御部11cは、2次元画像の頂点の画素の青の輝度値を算出する(S801)。制御部11cは、2次元画像の頂点の画素の緑の輝度値を算出する(S802)。制御部11cは、2次元座標の値(u,v)を3次元座標のx座標及びy座標に割り当てると共に、青の輝度値と緑の輝度値に基づいて、その頂点の画素のz座標を算出する(S803)。具体的には、青の輝度値から緑の輝度値を減算し、減算して得られた差分の値が大きいほどz軸座標が大きく(または小さく)なるようにz座標を算出する。制御部11cは、全頂点について、3次元座標(x、y、z)を算出したかどうかを判断する(S804)。全頂点についての3次元座標を算出するまで、ステップS801〜803を繰り返す。
FIG. 8 shows a flowchart of the calculation of the three-dimensional coordinates in this embodiment. The control unit 11c of the
上記のように求めた3次元座標に対して、図3のフローに従ってテクスチャを貼り付けた例を図9に示す。図9は、図8の方法を用いてz座標を算出して3次元画像を生成した場合であって、眼底で実験した結果を示している。図9(a)は元の2次元画像を示し、図9(b)は本実施形態の画像生成方法で3次元に変換した画像を示し、図9(c)〜(e)は図9(b)の3次元画像を回転させ且つ任意の断面で切断した状態を示す図である。本実施形態の画像生成方法により作成された画像より、青の輝度値から緑の輝度値を減算することにより、実際により近いz座標を得られることが確かめられた。 FIG. 9 shows an example in which a texture is pasted on the three-dimensional coordinates obtained as described above according to the flow of FIG. FIG. 9 shows a result of an experiment performed on the fundus oculi when a three-dimensional image is generated by calculating the z-coordinate using the method of FIG. 9A shows an original two-dimensional image, FIG. 9B shows an image converted into three dimensions by the image generation method of the present embodiment, and FIGS. 9C to 9E show FIGS. It is a figure which shows the state which rotated the three-dimensional image of b) and cut | disconnected by arbitrary cross sections. It was confirmed that the z coordinate closer to the actual value can be obtained by subtracting the green luminance value from the blue luminance value from the image created by the image generation method of the present embodiment.
本実施形態によれば、2次元画像の被写体の形状に関わらず、3次元画像を生成することができる。その際、特に、緑の輝度値と青の輝度値の差分に基づいてz座標を算出することにより、3次元画像の精度が向上する。 According to this embodiment, a three-dimensional image can be generated regardless of the shape of the subject of the two-dimensional image. At this time, in particular, the accuracy of the three-dimensional image is improved by calculating the z-coordinate based on the difference between the green luminance value and the blue luminance value.
なお、上記実施形態1、2の3次元画像の生成方法を、プログラムによりコンピュータに実行させてもよい。
In addition, you may make a computer perform the generation method of the three-dimensional image of the said
なお、本発明は、医療用途に限らず、土管や種々の配管、エンジンなどの配管の傷の検査等の工業用途にも使用でき、検査装置としての汎用性が広い。 In addition, this invention can be used not only for a medical use but for industrial uses, such as a test | inspection of the cracks of piping, such as a clay pipe, various piping, and an engine, and its versatility as an inspection apparatus is wide.
本発明によれば、解像度が高く且つ色情報を備えた有用性の高い3次元画像を生成することができるという効果を有し、医療用途や工業用途等に有用である。 The present invention has an effect that a highly useful three-dimensional image having high resolution and color information can be generated, and is useful for medical use, industrial use, and the like.
11 情報処理部
11a 入出力インターフェース
11b 記憶部
11c 制御部
12 表示部
13 操作部
13a マウス
13b キーボード
21 内視鏡スコープ
22 制御ユニット
22a 制御部
22b 信号処理部
22c 光源部
100 情報処理装置
200 内視鏡装置
DESCRIPTION OF SYMBOLS 11
Claims (6)
前記入力された2次元画像を格納する記憶手段と、
前記記憶手段から前記2次元画像を読み出し、読み出した2次元画像から前記被写体の3次元画像を生成する制御手段とを有し、
前記制御手段は、前記2次元画像内の各画素について、青の輝度情報と緑の輝度情報との差分を求め、その差分に基づき各画素の第3の座標軸上の座標を算出して3次元座標を求め、前記3次元座標に基づいて前記被写体の3次元画像を生成する、
3次元画像生成装置。 Input means for inputting a two-dimensional image of a subject having a three-dimensional shape;
Storage means for storing the input two-dimensional image;
Control means for reading the two-dimensional image from the storage means and generating a three-dimensional image of the subject from the read two-dimensional image;
The control means obtains a difference between the blue luminance information and the green luminance information for each pixel in the two-dimensional image, calculates a coordinate on the third coordinate axis of each pixel based on the difference, and calculates the three-dimensional Obtaining coordinates and generating a three-dimensional image of the subject based on the three-dimensional coordinates;
3D image generation device.
前記情報処理装置の制御手段が、
被写体を撮像した2次元画像内の各画素について、青の輝度情報と緑の輝度情報との差分を求め、前記差分に基づき各画素の第3の座標軸上の座標を算出して、3次元座標を求めるステップと、
前記2次元画像内の各画素の3次元座標に基づいて前記被写体の3次元画像を生成するステップと
を含む、
3次元画像生成方法。 A method of generating a 3D image from a 2D image of a subject having a 3D shape using an information processing device,
The control means of the information processing apparatus
For each pixel in the two-dimensional image in which the subject is imaged, the difference between the blue luminance information and the green luminance information is obtained, and the coordinates on the third coordinate axis of each pixel are calculated based on the difference to obtain the three-dimensional coordinates. A step of seeking
Generating a three-dimensional image of the subject based on a three-dimensional coordinate of each pixel in the two-dimensional image.
3D image generation method.
前記情報処理装置の制御手段に、
被写体を撮像した2次元画像内の各画素について、青の輝度情報と緑の輝度情報との差分を求め、前記差分に基づき各画素の第3の座標軸上の座標を算出して、3次元座標を求めるステップと、
前記2次元画像内の各画素の3次元座標に基づいて前記被写体の3次元画像を生成するステップと
を実行させる、3次元画像生成プログラム。 A program for causing an information processing device to generate a three-dimensional image from a two-dimensional image of a subject having a three-dimensional shape,
In the control means of the information processing apparatus,
For each pixel in the two-dimensional image in which the subject is imaged, the difference between the blue luminance information and the green luminance information is obtained, and the coordinates on the third coordinate axis of each pixel are calculated based on the difference to obtain the three-dimensional coordinates. A step of seeking
Generating a three-dimensional image of the subject based on the three-dimensional coordinates of each pixel in the two-dimensional image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009103217A JP5354494B2 (en) | 2009-04-21 | 2009-04-21 | 3D image generation apparatus, 3D image generation method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009103217A JP5354494B2 (en) | 2009-04-21 | 2009-04-21 | 3D image generation apparatus, 3D image generation method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010256988A JP2010256988A (en) | 2010-11-11 |
JP5354494B2 true JP5354494B2 (en) | 2013-11-27 |
Family
ID=43317866
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009103217A Expired - Fee Related JP5354494B2 (en) | 2009-04-21 | 2009-04-21 | 3D image generation apparatus, 3D image generation method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5354494B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018230099A1 (en) * | 2017-06-15 | 2018-12-20 | オリンパス株式会社 | Endoscope system, and method for operating endoscope system |
US10354436B2 (en) | 2016-03-15 | 2019-07-16 | Olympus Corporation | Image processing apparatus, image processing system and image processing apparatus operation method |
WO2021176664A1 (en) * | 2020-03-05 | 2021-09-10 | オリンパス株式会社 | Inspection support system, inspection support method, and program |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015049962A1 (en) * | 2013-10-02 | 2015-04-09 | オリンパスメディカルシステムズ株式会社 | Endoscope system |
JP6242543B2 (en) * | 2015-09-28 | 2017-12-06 | オリンパス株式会社 | Image processing apparatus and image processing method |
JP7472914B2 (en) * | 2019-10-25 | 2024-04-23 | 株式会社ニコン | IMAGE PROCESSING METHOD, IMAGE PROCESSING APPARATUS, AND PROGRAM |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000111635A (en) * | 1998-08-04 | 2000-04-21 | Japan Radio Co Ltd | 3D radar device |
JP2007029460A (en) * | 2005-07-27 | 2007-02-08 | Topcon Corp | Ophthalmic image processing apparatus and ophthalmic image processing program |
US7612773B2 (en) * | 2006-05-22 | 2009-11-03 | Magnin Paul A | Apparatus and method for rendering for display forward-looking image data |
JP4753104B2 (en) * | 2006-05-31 | 2011-08-24 | 国立大学法人 千葉大学 | 3D image construction apparatus and method, and program |
JP5478103B2 (en) * | 2009-04-15 | 2014-04-23 | 興和株式会社 | Image processing method |
-
2009
- 2009-04-21 JP JP2009103217A patent/JP5354494B2/en not_active Expired - Fee Related
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10354436B2 (en) | 2016-03-15 | 2019-07-16 | Olympus Corporation | Image processing apparatus, image processing system and image processing apparatus operation method |
WO2018230099A1 (en) * | 2017-06-15 | 2018-12-20 | オリンパス株式会社 | Endoscope system, and method for operating endoscope system |
CN110769731A (en) * | 2017-06-15 | 2020-02-07 | 奥林巴斯株式会社 | Endoscope system and method for operating endoscope system |
US11432707B2 (en) | 2017-06-15 | 2022-09-06 | Olympus Corporation | Endoscope system, processor for endoscope and operation method for endoscope system for determining an erroneous estimation portion |
WO2021176664A1 (en) * | 2020-03-05 | 2021-09-10 | オリンパス株式会社 | Inspection support system, inspection support method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP2010256988A (en) | 2010-11-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8913110B2 (en) | Endoscope apparatus and measurement method | |
US9157728B2 (en) | Endoscope apparatus and method | |
KR102087595B1 (en) | Endoscope system and control method thereof | |
JP5771757B2 (en) | Endoscope system and method for operating endoscope system | |
JP4994737B2 (en) | Medical image processing apparatus and medical image processing method | |
JP5354494B2 (en) | 3D image generation apparatus, 3D image generation method, and program | |
US9723971B2 (en) | Image processing apparatus, method, and program | |
US20190051039A1 (en) | Image processing apparatus, image processing method, program, and surgical system | |
US20190043215A1 (en) | Endoscope apparatus | |
US20110187824A1 (en) | Endoscope apparatus and measurement method | |
JP6141559B1 (en) | Medical device, medical image generation method, and medical image generation program | |
JPWO2009116465A1 (en) | Medical image display device and medical image display method | |
JP6206869B2 (en) | Endoscopic observation support device | |
CN111067468B (en) | Method, apparatus, and storage medium for controlling endoscope system | |
JP2006519631A (en) | Execution system and execution method for virtual endoscopy | |
JP7125479B2 (en) | MEDICAL IMAGE PROCESSING APPARATUS, METHOD OF OPERATION OF MEDICAL IMAGE PROCESSING APPARATUS, AND ENDOSCOPE SYSTEM | |
JP2017225700A (en) | Observation support device and endoscope system | |
Dimas et al. | Endoscopic single-image size measurements | |
JP7385731B2 (en) | Endoscope system, image processing device operating method, and endoscope | |
JP5624336B2 (en) | Medical image processing apparatus and medical image processing program | |
WO2018230099A1 (en) | Endoscope system, and method for operating endoscope system | |
JP2017205343A (en) | Endoscope device and method for operating endoscope device | |
JP2011170276A (en) | Endoscope device and program | |
CN106028943A (en) | Ultrasonic virtual endoscopic imaging system and method, and apparatus thereof | |
WO2021171464A1 (en) | Processing device, endoscope system, and captured image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120328 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130205 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130219 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130416 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130514 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130619 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130723 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130819 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5354494 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |