[go: up one dir, main page]

JP5693388B2 - Image collation device, patient positioning device, and image collation method - Google Patents

Image collation device, patient positioning device, and image collation method Download PDF

Info

Publication number
JP5693388B2
JP5693388B2 JP2011130074A JP2011130074A JP5693388B2 JP 5693388 B2 JP5693388 B2 JP 5693388B2 JP 2011130074 A JP2011130074 A JP 2011130074A JP 2011130074 A JP2011130074 A JP 2011130074A JP 5693388 B2 JP5693388 B2 JP 5693388B2
Authority
JP
Japan
Prior art keywords
image
dimensional
reference image
orientation
pattern matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011130074A
Other languages
Japanese (ja)
Other versions
JP2012254243A (en
JP2012254243A5 (en
Inventor
平澤 宏祐
宏祐 平澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2011130074A priority Critical patent/JP5693388B2/en
Priority to TW100141223A priority patent/TWI425963B/en
Priority to CN201210022145.2A priority patent/CN102814006B/en
Publication of JP2012254243A publication Critical patent/JP2012254243A/en
Publication of JP2012254243A5 publication Critical patent/JP2012254243A5/ja
Application granted granted Critical
Publication of JP5693388B2 publication Critical patent/JP5693388B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Radiation-Therapy Devices (AREA)

Description

本発明は、X線、ガンマ線、粒子線等の放射線を患者の患部に照射してがん治療を行う放射線治療装置において、CT画像データ等を利用した画像照合装置、及びこの画像照合装置を用いて放射線を照射する放射線照射位置に患者を位置決めする患者位置決め装置に関するものである。   The present invention uses an image collation apparatus using CT image data and the like in a radiotherapy apparatus that performs cancer treatment by irradiating an affected area of a patient with radiation such as X-rays, gamma rays, and particle beams. The present invention relates to a patient positioning apparatus that positions a patient at a radiation irradiation position for irradiating radiation.

近年、がん治療を目的とした放射線治療装置では、陽子や重イオン等の粒子線を用いたがん治療装置(特に、粒子線治療装置と呼ばれる)の開発や建設が進められている。周知のとおり、粒子線を用いた粒子線治療はX線、ガンマ線等の従来の放射線治療に比べて、がん患部に集中的に照射することができ、すなわち、患部の形状に合わせてピンポイントで粒子線を照射することができ、正常細胞に影響を与えずに治療することが可能である。   In recent years, development and construction of cancer treatment devices (particularly called particle beam treatment devices) using particle beams such as protons and heavy ions have been promoted in radiation treatment devices for cancer treatment. As is well known, particle beam therapy using particle beams can irradiate the cancer affected area more intensively than conventional radiotherapy such as X-rays and gamma rays, that is, pinpointing according to the shape of the affected area. Can be irradiated with a particle beam and can be treated without affecting normal cells.

粒子線治療では、粒子線をがんなどの患部に高精度に照射することが重要である。その為、患者は粒子線治療時には治療室(照射室)の治療台に対して位置がずれないように、固定具等を用いて固定される。がんなどの患部を放射線照射範囲に精度よく位置決めする為に、レーザポインタなどを利用した患者の粗据付けなどのセッティングを行い、次いで、X線画像等をもちいて患者の患部の精密な位置決めを行っている。   In particle beam therapy, it is important to irradiate an affected area such as cancer with high accuracy. Therefore, the patient is fixed using a fixture or the like so that the position does not shift with respect to the treatment table in the treatment room (irradiation room) during the particle beam treatment. In order to accurately position the affected area such as cancer within the radiation irradiation range, settings such as rough installation of the patient using a laser pointer are performed, and then the patient's affected area is accurately positioned using an X-ray image or the like. Is going.

特許文献1には、X線透視画像の基準画像及びX線受像器により撮影している現在画像のいずれの画像にも同じ複数のモニュメントの同じ位置を指定することなく、2段階パターンマッチングを行い、治療台を駆動する位置決め用情報を生成するベッド位置決め装置及びその位置決め方法が提案されている。1次パターンマッチングでは、2次元基準画像に対して設置されたアイソセンタ(ビーム照射中心)を含む第1設定領域と略同じ大きさの第2設定領域を2次元現在画像に対して設定し、2次元現在画像の領域内で第2設定領域を、順次、移動させて、第2設定領域のそれぞれの位置で、第1設定領域内の2次元基準画像と第2設定領域内の2次元現在画像とを比較し、第1設定領域の2次元基準画像と最も類似した2次元現在画像を持つ第2設定領域を抽出する。2次パターンマッチングでは、1次パターンマッチングで抽出した第2設定領域内の2次元現在画像を前記第1設定領域内の前記2次元基準画像と比較し、両画像が最も一致するようにパターンマッチングを行っていた。   In Patent Document 1, two-step pattern matching is performed without designating the same position of the same monument in any of the reference image of the X-ray fluoroscopic image and the current image captured by the X-ray receiver. A bed positioning device that generates positioning information for driving a treatment table and a positioning method therefor have been proposed. In the primary pattern matching, a second setting area having the same size as the first setting area including the isocenter (beam irradiation center) set for the two-dimensional reference image is set for the two-dimensional current image. The second setting area is sequentially moved within the area of the two-dimensional current image, and the two-dimensional reference image in the first setting area and the two-dimensional current image in the second setting area are moved at the respective positions of the second setting area. And the second setting area having the two-dimensional current image most similar to the two-dimensional reference image in the first setting area is extracted. In the secondary pattern matching, the two-dimensional current image in the second setting area extracted by the primary pattern matching is compared with the two-dimensional reference image in the first setting area, and the pattern matching is performed so that the two images most closely match. Had gone.

特許第3748433号公報(0007〜0009段、0049段、図8、図9)Japanese Patent No. 3748433 (0007-0009 stage, 0049 stage, FIG. 8, FIG. 9)

患部の形状は3次元の立体形状であるので、治療計画時の患部位置に患部を位置決めするには3次元画像を用いる方が、2次元画像を用いるよりも高精度の位置決めが可能になる。一般的に、治療計画データ作成の際には、X線CT(Computed Tomography)画像を
用いて3次元的に患部形状を特定することが行われる。近年、治療室にX線CT装置を備え、治療の際にX線CT装置により撮影したX線CT現在画像と、治療計画の際のX線CT画像とを用いて、位置決めを行いたいという要求がある。X線透視画像では軟部組織である患部は良く映らないため骨を使った位置合わせが基本となるが、X線CT画像を用いた位置決めは、X線CT画像に映った患部同士での位置合わせができるからである。
Since the shape of the affected part is a three-dimensional solid shape, using a three-dimensional image to position the affected part at the position of the affected part at the time of treatment planning enables positioning with higher accuracy than using a two-dimensional image. Generally, when creating treatment plan data, an affected part shape is specified three-dimensionally using an X-ray CT (Computed Tomography) image. In recent years, a treatment room has been equipped with an X-ray CT apparatus, and it is desired to perform positioning using an X-ray CT current image taken by the X-ray CT apparatus at the time of treatment and an X-ray CT image at the time of treatment planning. There is. In X-ray fluoroscopic images, affected areas that are soft tissues do not appear well, so positioning using bone is fundamental, but positioning using X-ray CT images is based on alignment between affected areas reflected in X-ray CT images. Because you can.

そこで、従来の2段階パターンマッチングにおいて、基準画像及び現在画像を3次元画像に拡張する場合を考える。3次元基準画像及び3次元現在画像は、X線CT装置で撮影された複数の断層画像(スライス画像)を含んでいる。3次元現在画像は、X線被ばくなどの観点から画像枚数が少ないことが想定されるため、密な画像情報を有する3次元基準画像と、3次元基準画像よりも粗い画像情報を有する3次元現在画像とを比較する必要がある。従来の2段階パターンマッチングでは、それぞれ同一密度の画像情報を有する2次元基準画像と2次元現在画像との比較はできるものの、画像情報の密度が異なる3次元基準画像と3次元現在画像との比較する際には、従来技術の画像次元を2次元から3次元に単純に高次元化するだけでは、2段階パターンマッチングを実現することはできない問題がある。すなわち、従来と同様に、設定される第1設定領域内の3次元基準画像から第2設定領域内の3次元現在画像への1次パターンマッチングを単純に行い、抽出された第2設定領域内の3次元現在画像を第1設定領域内の3次元基準画像第と単純に比較し、両3次元画像が最も一致するようにパターンマッチングを実現することはできない問題がある。   Therefore, consider a case where the reference image and the current image are expanded to a three-dimensional image in the conventional two-stage pattern matching. The three-dimensional reference image and the three-dimensional current image include a plurality of tomographic images (slice images) captured by the X-ray CT apparatus. Since the three-dimensional current image is assumed to have a small number of images from the viewpoint of X-ray exposure or the like, the three-dimensional current image having a three-dimensional reference image having dense image information and coarser image information than the three-dimensional reference image. It is necessary to compare the image. In the conventional two-stage pattern matching, a two-dimensional reference image having the same density image information and a two-dimensional current image can be compared, but a comparison between a three-dimensional reference image and a three-dimensional current image having different image information densities. In this case, there is a problem that the two-step pattern matching cannot be realized by simply increasing the image dimension of the prior art from two dimensions to three dimensions. That is, similarly to the conventional case, the primary pattern matching from the 3D reference image in the set first setting area to the 3D current image in the second setting area is simply performed, and the extracted second setting area The three-dimensional current image is simply compared with the third three-dimensional reference image in the first setting area, and there is a problem that pattern matching cannot be realized so that the three-dimensional images most closely match.

本発明は、放射線治療の患者位置決めの際に、3次元現在画像の断層画像数が3次元基準画像よりも少ない場合であっても、精度の高い2段階パターンマッチング(2段階照合)を実現することを目的にする。   The present invention realizes two-step pattern matching (two-step matching) with high accuracy even when the number of tomographic images of a three-dimensional current image is smaller than that of a three-dimensional reference image when positioning a patient for radiation therapy. To aim.

本発明に係る画像照合装置は、放射線治療の治療計画の際に撮影された3次元基準画像と治療の際に撮影される3次元現在画像を各々読み込む3次元画像入力部と、3次元基準画像と3次元現在画像とを照合し、3次元現在画像における患部の位置姿勢を3次元基準画像における患部の位置姿勢に合うように体位補正量を計算する照合処理部と、を備える。照合処理部は、3次元基準画像から3次元現在画像に対して1次パターンマッチングを行う1次照合部と、3次元基準画像又は3次元現在画像の一方から1次パターンマッチングの結果に基づいて生成された所定のテンプレート領域から、所定のテンプレート領域の生成元とは異なる3次元基準画像又は3次元現在画像の他方から1次パターンマッチングの結果に基づいて生成された所定の検索対象領域に対して、2次パターンマッチングを行う2次照合部と、3次元基準画像に準備された患部情報に基づいて、3次元基準画像から3次元領域の基準画像テンプレート領域を生成する基準テンプレート領域生成部と、3次元画像の位置姿勢を変換する位置姿勢変換部と、を有し、位置姿勢変換部は、基準画像テンプレート領域の位置姿勢を所定の位置姿勢に変換した位置姿勢変換テンプレート領域を生成し、1次照合部は、1次パターンマッチングの際に、位置姿勢変換テンプレート領域から3次元現在画像に対してパターンマッチングを行う。 An image collation apparatus according to the present invention includes a three-dimensional image input unit that reads a three-dimensional reference image captured at the time of radiation therapy treatment planning and a three-dimensional current image captured at the time of treatment, and a three-dimensional reference image. And a three-dimensional current image, and a matching processing unit that calculates a body posture correction amount so that the position and orientation of the affected part in the three-dimensional current image matches the position and orientation of the affected part in the three-dimensional reference image. The matching processing unit performs primary pattern matching on the three-dimensional current image from the three-dimensional reference image, and based on the result of the primary pattern matching from one of the three-dimensional reference image or the three-dimensional current image. From the generated predetermined template area to the predetermined search target area generated based on the result of the primary pattern matching from the other of the three-dimensional reference image or the three-dimensional current image different from the generation source of the predetermined template area A secondary matching unit that performs secondary pattern matching, a reference template region generation unit that generates a reference image template region of a three-dimensional region from a three-dimensional reference image based on diseased part information prepared in the three-dimensional reference image, , possess a position and orientation converter for converting the position and orientation of the three-dimensional image, the position and orientation transformation unit, own the position and orientation of the reference image template region A position / orientation conversion template region converted into a fixed position / orientation is generated, and the primary verification unit performs pattern matching on the three-dimensional current image from the position / orientation conversion template region during the primary pattern matching.

本発明に係る画像照合装置は、3次元基準画像から3次元現在画像に1次パターンマッチングを行い、次に、1次パターンマッチングの結果に基づいて、所定のテンプレート領域と所定の検索対象領域を生成して、検索対象領域とテンプレート領域との2次パターンマッチングを実行するので、3次元現在画像の断層画像数が3次元基準画像よりも少ない場合であっても、精度の高い2段階パターンマッチングを実現することができる。   The image matching apparatus according to the present invention performs primary pattern matching from a three-dimensional reference image to a three-dimensional current image, and then determines a predetermined template area and a predetermined search target area based on the result of the primary pattern matching. Generate and execute secondary pattern matching between the search target area and the template area, so even if the number of tomographic images in the 3D current image is smaller than that in the 3D reference image, highly accurate two-step pattern matching Can be realized.

本発明の実施の形態1による画像照合装置及び患者位置決め装置の構成を示す図である。It is a figure which shows the structure of the image collation apparatus and patient positioning device by Embodiment 1 of this invention. 本発明の画像照合装置及び患者位置決め装置に関する全体機器構成を示す図である。It is a figure which shows the whole apparatus structure regarding the image collation apparatus of this invention, and a patient positioning device. 本発明の実施の形態1による3次元基準画像及び基準画像テンプレート領域を示す図である。It is a figure which shows the three-dimensional reference | standard image and reference | standard image template area | region by Embodiment 1 of this invention. 本発明の実施の形態1による3次元現在画像を示す図である。It is a figure which shows the three-dimensional present image by Embodiment 1 of this invention. 本発明の実施の形態1による1次パターンマッチング方法を説明する図である。It is a figure explaining the primary pattern matching method by Embodiment 1 of this invention. 図5の1次パターンマッチング方法における基準画像テンプレート領域とスライス画像の関係を説明する図である。It is a figure explaining the relationship between the reference | standard image template area | region and slice image in the primary pattern matching method of FIG. 本発明の実施の形態1による1次パターンマッチング方法によって、抽出されたスライス画像の1次抽出領域を示す図である。It is a figure which shows the primary extraction area | region of the slice image extracted by the primary pattern matching method by Embodiment 1 of this invention. 本発明の実施の形態1による2次パターンマッチング方法を説明する図である。It is a figure explaining the secondary pattern matching method by Embodiment 1 of this invention. 図8の2次パターンマッチング方法における基準画像テンプレート領域とスライス画像の関係を説明する図である。It is a figure explaining the relationship between the reference | standard image template area | region and slice image in the secondary pattern matching method of FIG. 本発明の実施の形態2による1次パターンマッチング方法を説明する図である。It is a figure explaining the primary pattern matching method by Embodiment 2 of this invention. 図10の1次パターンマッチング方法における基準画像テンプレート領域とスライス画像の関係を説明する図である。It is a figure explaining the relationship between the reference | standard image template area | region and slice image in the primary pattern matching method of FIG. 本発明の実施の形態2による姿勢変換後の3次元基準画像を示す図である。It is a figure which shows the three-dimensional reference | standard image after the attitude | position conversion by Embodiment 2 of this invention. 本発明の実施の形態2による2次パターンマッチング方法を説明する図である。It is a figure explaining the secondary pattern matching method by Embodiment 2 of this invention. 本発明の実施の形態3による画像照合装置及び患者位置決め装置の構成を示す図である。It is a figure which shows the structure of the image collation apparatus and patient positioning device by Embodiment 3 of this invention.

実施の形態1.
図1は本発明の実施の形態1による画像照合装置及び患者位置決め装置の構成を示す図であり、図2は本発明の画像照合装置及び患者位置決め装置に関する全体機器構成を示す図である。図2において、1は放射線治療に先立って行われる治療計画を行うためのCTシミュレータ室であり、ここにはCTガントリー2、CT画像撮影用ベッドの天板3があり、天板3の上に患者4を横たえて、患部5を含むように治療計画用のCT画像データが撮影される。一方、6は放射線治療を行うための治療室であり、ここにはCTガントリー7、回転治療台8と、回転治療台8の上部には天板9があり、天板9の上に患者10を横たえて、治療時の患部11を含むように位置決め用のCT画像データが撮影される。
Embodiment 1 FIG.
FIG. 1 is a diagram showing the configuration of an image collating device and a patient positioning device according to Embodiment 1 of the present invention, and FIG. 2 is a diagram showing the overall equipment configuration related to the image collating device and patient positioning device of the present invention. In FIG. 2, reference numeral 1 denotes a CT simulator room for performing a treatment plan performed prior to radiotherapy, which includes a CT gantry 2 and a top board 3 for a CT image capturing bed. CT image data for treatment planning is taken so that the patient 4 is laid and the affected part 5 is included. On the other hand, 6 is a treatment room for performing radiation therapy. Here, there is a CT gantry 7, a rotation treatment table 8, and a top plate 9 at the top of the rotation treatment table 8, and a patient 10 on the top plate 9. The CT image data for positioning is imaged so as to include the affected part 11 at the time of treatment.

ここで、位置決めとは、治療時の患者10と患部11の位置を、治療計画用のCT画像データから割り出し、治療計画に合うように体位補正量を計算し、治療時の患部11が放射線治療のビーム照射中心12にくるように位置合わせを行うことである。位置合わせは患者10を天板9に載せたまま回転治療台8を駆動制御して天板9の位置を移動することで実現する。回転治療台8は並進・回転の6自由度の駆動補正が可能であるとともに、回転治療台8の天板9を180度回転することで、CT撮影ポジション(図2において実線にて示す)から放射線を照射する照射ヘッド13のある治療ポジション(図2において点線にて示す)へ移動することもできる。なお、図2では、CT撮影ポジションと治療ポジションが180度の対向位置関係にあるものが示されているが、この配置形態に限られず、両者の位置関係が90度等その他の角度をなすものであってもかまわない。   Here, the positioning means that the positions of the patient 10 and the affected part 11 at the time of treatment are calculated from the CT image data for the treatment plan, and the body position correction amount is calculated so as to match the treatment plan. Positioning is performed so that the beam irradiation center 12 is located. The alignment is realized by moving the position of the top plate 9 by driving and controlling the rotary treatment table 8 while the patient 10 is placed on the top plate 9. The rotational treatment table 8 is capable of drive correction with six degrees of freedom of translation and rotation, and by rotating the top plate 9 of the rotational treatment table 8 by 180 degrees, from the CT imaging position (shown by a solid line in FIG. 2). It is also possible to move to a certain treatment position (indicated by a dotted line in FIG. 2) of the irradiation head 13 that emits radiation. In FIG. 2, the CT imaging position and the treatment position are shown to be in an opposing positional relationship of 180 degrees. However, the present invention is not limited to this arrangement form, and the positional relation between them forms another angle such as 90 degrees. It doesn't matter.

治療計画用のCT画像データと位置決め用のCT画像データとは位置決め計算機14に転送される。治療計画用のCT画像データは3次元基準画像となり、位置決め用のCT画像データは3次元現在画像となる。本発明における画像照合装置29および患者位置決め装置30は、いずれもこの位置決め計算機14内に存在するコンピュータソフトウェアに関するものであり、画像照合装置29は前記体位補正量(並進量、回転量)を計算するとともに、患者位置決め装置30は画像照合装置29を包含しつつ、更にこの体位補正量に基づいて回転治療台8(適宜、単に治療台8と呼ぶ)の各駆動軸を制御するパラメータを算出する機能を有するものである。患者位置決め装置30は、画像照合装置29によるマッチング結果(照合結果)によって治療台8を制御することで、粒子線治療の対象患部が、治療装置のビーム照射中心12に位置するように導く。   The CT image data for treatment planning and the CT image data for positioning are transferred to the positioning computer 14. The CT image data for treatment planning is a three-dimensional reference image, and the CT image data for positioning is a three-dimensional current image. The image collating device 29 and the patient positioning device 30 according to the present invention both relate to computer software existing in the positioning computer 14, and the image collating device 29 calculates the posture correction amount (translation amount, rotation amount). At the same time, the patient positioning device 30 includes the image collating device 29, and further calculates a parameter for controlling each drive shaft of the rotary treatment table 8 (referred to simply as the treatment table 8 as appropriate) based on the posture correction amount. It is what has. The patient positioning device 30 controls the treatment table 8 based on the matching result (collation result) by the image collating device 29 to guide the target affected part of the particle beam treatment to be positioned at the beam irradiation center 12 of the treatment device.

従来の放射線治療における位置決めでは、治療計画用CT画像データから生成したDRR(Digitally Reconstructed Radiography)画像やこれと同時に撮影したX線透視画像
と治療時の治療室で撮影したX線透視画像とを照合することで位置ずれ量を計算していた。X線透視画像では軟部組織である患部は良く映らないため骨を使った位置合わせが基本となる。本実施の形態で記述するCT画像データを用いた位置決めは、治療室6にCTガントリー7を設置し、治療直前のCT画像データと治療計画用CT画像データとで位置合わせをするため、患部を直接的に描出可能で、患部での位置合わせができるという特徴を有する。
In positioning in conventional radiotherapy, the DRR (Digitally Reconstructed Radiography) image generated from CT image data for treatment planning and the X-ray fluoroscopic image taken at the same time are compared with the X-ray fluoroscopic image taken in the treatment room at the time of treatment. By doing so, the amount of positional deviation was calculated. In an X-ray fluoroscopic image, the affected part, which is a soft tissue, does not appear well, so positioning using bone is fundamental. In the positioning using the CT image data described in the present embodiment, the CT gantry 7 is installed in the treatment room 6, and the CT image data immediately before the treatment and the CT image data for treatment planning are aligned. It has the feature that it can be drawn directly and can be positioned at the affected area.

次に、本実施の形態における画像照合装置29および患者位置決め装置30での前記体位補正量の計算手順について説明する。図1は画像照合装置及び患者位置決め装置を構成する各データ処理部間の関係を示しており、ここで画像照合装置29は、CT画像データを読み込む3次元画像入力部21、照合処理部22、照合結果表示部23、照合結果出力部24を有する。画像照合装置29に治療台制御パラメータ算出部26を加えたものが患者位置決め装置患者位置決め装置30である。   Next, the calculation procedure of the posture correction amount in the image collating device 29 and the patient positioning device 30 in the present embodiment will be described. FIG. 1 shows the relationship between the data processing units constituting the image verification device and the patient positioning device. Here, the image verification device 29 includes a three-dimensional image input unit 21 for reading CT image data, a verification processing unit 22, A verification result display unit 23 and a verification result output unit 24 are provided. A patient positioning device patient positioning device 30 is obtained by adding the treatment table control parameter calculating unit 26 to the image collating device 29.

前述したように、3次元基準画像は治療計画時に治療計画用に撮影されたデータであり、粒子線治療の対象となる患部を示す患部情報(患部形状等)が人手により入力されていることを特徴とする。3次元現在画像は、治療時に患者位置決め用に撮影されたデータであり、X線被ばくを抑制する観点から、断層画像(スライス画像とも呼ぶ)枚数が少ないことを特徴とする。   As described above, the three-dimensional reference image is data taken for treatment planning at the time of treatment planning, and information on the affected part (affected part shape or the like) indicating the affected part to be subjected to particle beam therapy is input manually. Features. The three-dimensional current image is data taken for patient positioning at the time of treatment, and is characterized by a small number of tomographic images (also called slice images) from the viewpoint of suppressing X-ray exposure.

本発明では、3次元基準画像から3次元現在画像に1次パターンマッチングし、次に、1次パターンマッチングの結果に基づいて、所定のテンプレート領域と所定の検索対象領域を生成して、この所定のテンプレート領域を用いて、同方向、もしくは、逆方向に2次パターンマッチングする2段階パターンマッチングの構成とする。2段階パターンマッチングでは、1次パターンマッチング時のマッチングパラメータと、2次パターンマッチング時のマッチングパラメータとを異なるものとすることで、処理の高速化や高精度化を図ることができる。例えば、1次パターンマッチングを粗い解像度で広範囲を対象に行って、見つけたテンプレート領域又は検索対象領域を用いて、2次パターンマッチングを密な解像度で絞り込んだ範囲を対象に行うような方法がある。   In the present invention, primary pattern matching is performed from the three-dimensional reference image to the three-dimensional current image, and then a predetermined template area and a predetermined search target area are generated based on the result of the primary pattern matching. The template region is used to form a two-step pattern matching that performs secondary pattern matching in the same direction or in the opposite direction. In the two-step pattern matching, the matching parameter at the time of primary pattern matching is different from the matching parameter at the time of secondary pattern matching, so that the processing speed and accuracy can be increased. For example, there is a method in which primary pattern matching is performed on a wide range with a coarse resolution, and secondary pattern matching is performed on a narrowed down range with a fine resolution using the found template area or search target area. .

3次元画像入力部21について説明する。3次元画像入力部21は、X線CT装置により撮影され、複数の断層画像に構成された画像群をDICOM(Digital Imaging and Communications in Medicine)形式の画像データ(スライス画像群)を、3次元のボリュームデータとして読み込むものである。治療計画用のCT画像データは、治療計画時の3次元ボリュームデータであり、すなわち3次元基準画像である。位置決め用のCT画像データは、治療時の3次元ボリュームデータであり、すなわち3次元現在画像である。なお、CT画像データはDICOM形式に限定されるものではなく、他の形式であっても構わない。   The three-dimensional image input unit 21 will be described. The three-dimensional image input unit 21 captures an image group (slice image group) in DICOM (Digital Imaging and Communications in Medicine) format from an image group that is captured by an X-ray CT apparatus and is configured into a plurality of tomographic images. It is read as volume data. The CT image data for treatment planning is three-dimensional volume data at the time of treatment planning, that is, a three-dimensional reference image. The CT image data for positioning is three-dimensional volume data at the time of treatment, that is, a three-dimensional current image. The CT image data is not limited to the DICOM format, and may be in other formats.

照合処理部22は、3次元基準画像と3次元現在画像とを照合(パターンマッチング)し、3次元現在画像における患部の位置姿勢を前記3次元基準画像における患部の位置姿勢に合うように体位補正量を計算する。照合結果表示部23は、照合処理部22により照合した結果(後述する体位補正量や、この体位補正量で移動させた3次元現在画像を3次元基準画像に重ねて表示した画像等)を、位置決め計算機14のモニター画面に表示する。照合結果出力部24は、照合処理部22により3次元基準画像と3次元現在画像とを照合させた際の補正量、すなわち照合処理部22により計算された体位補正量(並進量、回転量)を出力する。治療台制御パラメータ算出部26は、照合結果出力部24の出力値(並進3軸[ΔX、ΔY、ΔZ]、回転3軸[ΔA、ΔB、ΔC]の計6自由度)を、治療台8の各軸を制御するパラメータに変換し、すなわちパラメータを算出する。治療台8は、治療台制御パラメータ算出部26により計算された治療台制御パラメータに基づいて治療台8の各軸の駆動装置を駆動する。これにより、治療計画に合うように体位補正量を計算し、治療時の患部11が放射線治療のビーム照射中心12にくるように位置合わせすることができる。   The collation processing unit 22 collates (pattern matching) the 3D reference image and the 3D current image, and corrects the body position so that the position and orientation of the affected part in the 3D current image matches the position and orientation of the affected part in the 3D reference image. Calculate the quantity. The collation result display unit 23 displays the collation result by the collation processing unit 22 (postural correction amount described later, an image obtained by superimposing a three-dimensional current image moved by the posture correction amount on a three-dimensional reference image, and the like). It is displayed on the monitor screen of the positioning computer 14. The collation result output unit 24 corrects the correction amount when the collation processing unit 22 collates the three-dimensional reference image with the three-dimensional current image, that is, the posture correction amount (translation amount, rotation amount) calculated by the collation processing unit 22. Is output. The treatment table control parameter calculation unit 26 uses the output values of the matching result output unit 24 (total six degrees of freedom of three translational axes [ΔX, ΔY, ΔZ] and three rotation axes [ΔA, ΔB, ΔC]) as the treatment table 8. Are converted into parameters for controlling the respective axes, that is, the parameters are calculated. The treatment table 8 drives the driving device for each axis of the treatment table 8 based on the treatment table control parameter calculated by the treatment table control parameter calculation unit 26. As a result, the body position correction amount can be calculated so as to match the treatment plan, and the affected part 11 at the time of treatment can be positioned so as to be at the beam irradiation center 12 of the radiation treatment.

照合処理部22は、位置姿勢変換部25、1次照合部16、2次照合部17、基準テンプレート領域生成部18を有する。位置姿勢変換部25は、1次パターンマッチングや2次パターンマッチングの際に、対象データの位置姿勢を変更するものである。1次照合部16は、3次元基準画像から3次元現在画像に対して1次パターンマッチングを行う。2次照合部17は、3次元基準画像又は3次元現在画像の一方から1次パターンマッチングの結果に基づいて生成された所定のテンプレート領域から、所定のテンプレート領域の生成元とは異なる3次元基準画像又は3次元現在画像の他方から1次パターンマッチングの結果に基づいて生成された所定の検索対象領域に対して、2次パターンマッチングを行う。   The collation processing unit 22 includes a position / orientation conversion unit 25, a primary collation unit 16, a secondary collation unit 17, and a reference template region generation unit 18. The position / orientation conversion unit 25 changes the position / orientation of the target data at the time of primary pattern matching or secondary pattern matching. The primary matching unit 16 performs primary pattern matching on the three-dimensional current image from the three-dimensional reference image. The secondary collation unit 17 uses a three-dimensional reference different from the generation source of the predetermined template region from a predetermined template region generated based on the result of the primary pattern matching from one of the three-dimensional reference image or the three-dimensional current image. Secondary pattern matching is performed on a predetermined search target region generated based on the result of primary pattern matching from the other of the image or the three-dimensional current image.

図3乃至図9を用いて、照合処理部22について、詳しく説明する。図3は、本発明の実施の形態1による3次元基準画像及び基準画像テンプレート領域を示す図である。図4は、本発明の実施の形態1による3次元現在画像を示す図である。図5は、本発明の実施の形態1による1次パターンマッチング方法を説明する図である。図6は、図5の1次パターンマッチング方法における基準画像テンプレート領域とスライス画像の関係を説明する図である。図7は、本発明の実施の形態1による1次パターンマッチング方法によって、抽出されたスライス画像の1次抽出領域を示す図である。図8は、本発明の実施の形態1による2次パターンマッチング方法を説明する図である。図9は、図8の2次パターンマッチング方法における基準画像テンプレート領域とスライス画像の関係を説明する図である。   The matching processing unit 22 will be described in detail with reference to FIGS. 3 to 9. FIG. 3 is a diagram showing a three-dimensional reference image and a reference image template region according to Embodiment 1 of the present invention. FIG. 4 is a diagram showing a three-dimensional current image according to Embodiment 1 of the present invention. FIG. 5 is a diagram for explaining a primary pattern matching method according to Embodiment 1 of the present invention. FIG. 6 is a diagram for explaining the relationship between the reference image template region and the slice image in the primary pattern matching method of FIG. FIG. 7 is a diagram showing a primary extraction region of a slice image extracted by the primary pattern matching method according to Embodiment 1 of the present invention. FIG. 8 is a diagram for explaining a secondary pattern matching method according to Embodiment 1 of the present invention. FIG. 9 is a diagram for explaining the relationship between the reference image template region and the slice image in the secondary pattern matching method of FIG.

照合処理部22の基準テンプレート領域生成部18は、治療計画時に入力されている患部形状(患部情報)を用いて、3次元基準画像31から、基準画像テンプレート領域33を生成する。3次元基準画像31は、複数のスライス画像32から構成される。図3では、複雑にならないように5枚のスライス画像32a、32b、32c、32d、32eからなる例を示した。患部形状はROI(Region of Interest)35として、スライス画像毎に患部を囲む閉輪郭として入力されている。前記閉輪郭を包含する領域を、例えば外接四角形34として、各外接四角形34を包含する直方体領域をテンプレート領域とすれば良い。このテンプレート領域を基準画像テンプレート領域33とする。照合処理部22の1次照合部16は、基準画像テンプレート領域33を3次元現在画像36に1次パターンマッチングする。図4に示した3次元現在画像36は、3枚のスライス画像37a、37b、37cからなる例を示した。図5に示した現在画像領域38は、3枚のスライス画像37a、37b、37cを含む直方体として表現した。図5のように、現在画像領域38において基準画像テンプレート領域33(33a、33b、33c)をラスタースキャン状に動かして行き、3次元現在画像36との相関値を計算する。相関値としては、正規化相互相関値など、画像マッチング(画像照合)で利用されるあらゆる相関値を利用することができる。   The reference template region generation unit 18 of the matching processing unit 22 generates a reference image template region 33 from the three-dimensional reference image 31 using the affected part shape (affected part information) input at the time of treatment planning. The three-dimensional reference image 31 is composed of a plurality of slice images 32. FIG. 3 shows an example of five slice images 32a, 32b, 32c, 32d, and 32e so as not to be complicated. The shape of the affected part is input as a ROI (Region of Interest) 35 as a closed contour surrounding the affected part for each slice image. The region including the closed contour may be a circumscribed rectangle 34, for example, and a rectangular parallelepiped region including each circumscribed rectangle 34 may be a template region. This template area is referred to as a reference image template area 33. The primary matching unit 16 of the matching processing unit 22 performs primary pattern matching of the reference image template region 33 with the three-dimensional current image 36. The three-dimensional current image 36 shown in FIG. 4 shows an example composed of three slice images 37a, 37b, and 37c. The current image area 38 shown in FIG. 5 is expressed as a rectangular parallelepiped including three slice images 37a, 37b, and 37c. As shown in FIG. 5, the reference image template region 33 (33a, 33b, 33c) is moved in a raster scan pattern in the current image region 38, and a correlation value with the three-dimensional current image 36 is calculated. As the correlation value, any correlation value used in image matching (image matching) such as a normalized cross-correlation value can be used.

基準画像テンプレート領域33aは、スライス画像37aをスキャン経路39aに沿ってラスタースキャン状に動かされる。同様に、基準画像テンプレート領域33bはスライス画像37bをスキャン経路39bに沿ってラスタースキャン状に動かされ、基準画像テンプレート領域33cはスライス画像37cをスキャン経路39cに沿ってラスタースキャン状に動かされる。スキャン経路39b、39cは図が複雑にならないように簡略化して示した。   In the reference image template region 33a, the slice image 37a is moved in a raster scan shape along the scan path 39a. Similarly, the reference image template region 33b is moved along the scan path 39b in a raster scan manner on the slice image 37b, and the reference image template region 33c is moved along the scan route 39c in a raster scan manner. The scanning paths 39b and 39c are shown in a simplified manner so as not to make the figure complicated.

1次パターンマッチングの際には、図6に示すように、基準画像テンプレート領域33を構成するスライス画像53毎に、現在画像領域38を構成するスライス画像37との画像照合を行う。スライス画像53は、3次元基準画像31のスライス画像32において基準画像テンプレート領域33で区切られた画像である。基準画像テンプレート領域33は、3次元基準画像における5枚のスライス画像32a、32b、32c、32d、32eに対応した5枚のスライス画像53a、53b、53c、53d、53eから構成される。したがって、1次パターンマッチングの際には、3次元現在画像36のスライス画像37aに対して、基準画像テンプレート領域33における5枚のスライス画像53a、53b、53c、53d、53eそれぞれとで画像照合を行う。3次元現在画像36のスライス画像37b、37cに対して、同様に画像照合を行う。   In the primary pattern matching, as shown in FIG. 6, for each slice image 53 constituting the reference image template region 33, image matching with the slice image 37 constituting the current image region 38 is performed. The slice image 53 is an image divided by the reference image template region 33 in the slice image 32 of the three-dimensional reference image 31. The reference image template area 33 includes five slice images 53a, 53b, 53c, 53d, and 53e corresponding to the five slice images 32a, 32b, 32c, 32d, and 32e in the three-dimensional reference image. Therefore, at the time of primary pattern matching, image matching is performed on each of the five slice images 53a, 53b, 53c, 53d, and 53e in the reference image template region 33 with respect to the slice image 37a of the three-dimensional current image 36. Do. Image matching is similarly performed on the slice images 37b and 37c of the three-dimensional current image 36.

1次照合部16は、1次パターンマッチングによって、現在画像領域38と基準画像テンプレート領域33との相関値が最も高くなった領域を包含するように、3次元現在画像36の各スライス画像37から1次抽出領域43を抽出する。図7に示すように、3次元現在画像36のスライス画像37aから1次抽出領域43aが抽出される。同様に、3次元現在画像36のスライス画像37b、37cから1次抽出領域43b、43cが抽出される。1次抽出領域43a、43b、43cを含むように、2次パターンマッチングに用いる検索対象領域である1次抽出現在画像領域42は生成される。このように、1次照合部16は、2次パターンマッチングに用いる検索対象領域である1次抽出現在画像領域42を生成する。   The primary collation unit 16 uses each slice image 37 of the three-dimensional current image 36 so as to include a region where the correlation value between the current image region 38 and the reference image template region 33 is the highest by the primary pattern matching. The primary extraction area 43 is extracted. As shown in FIG. 7, a primary extraction region 43a is extracted from the slice image 37a of the three-dimensional current image 36. Similarly, primary extraction regions 43b and 43c are extracted from the slice images 37b and 37c of the three-dimensional current image 36. A primary extraction current image area 42 which is a search target area used for secondary pattern matching is generated so as to include the primary extraction areas 43a, 43b, and 43c. As described above, the primary matching unit 16 generates the primary extracted current image area 42 that is a search target area used for the secondary pattern matching.

ここで、位置決め前の状態においては、3次元基準画像31と3次元現在画像36の姿勢(回転3軸)が合っていないため、図5のような単純なラスタースキャンでは、3次元現在画像36のスライス枚数が少ない場合には、角度ずれまで検出する精度の高いマッチングが出来ないものの、2次パターンマッチングを行うための1次抽出領域43を抽出するには問題はない。そこで、1次パターンマッチングでは角度ずれまで検出せずに相関値を計算し、その後の2次パターンマッチングでは角度ずれまで検出する精度の高いマッチングを行う。   Here, in the state before positioning, since the postures (the three rotation axes) of the three-dimensional reference image 31 and the three-dimensional current image 36 do not match, in the simple raster scan as shown in FIG. If the number of slices is small, matching with high accuracy for detecting an angle shift cannot be performed, but there is no problem in extracting the primary extraction region 43 for performing secondary pattern matching. Therefore, in the primary pattern matching, the correlation value is calculated without detecting even the angle deviation, and in the subsequent secondary pattern matching, matching with high accuracy for detecting the angle deviation is performed.

2次パターンマッチングについて説明する。2次パターンマッチングでは、マッチング処理部22の位置姿勢変換部25により、3次元基準画像31から生成された基準画像テンプレート領域33の位置姿勢を変換した位置姿勢変換テンプレート領域40を生成する。2次パターンマッチングでは、図8及び図9のように、マッチング時に、基準画像テンプレート領域33の姿勢変化量(回転3軸)をパラメータとして追加する。2次照合部17は、位置姿勢変換部25により位置姿勢を変換した位置姿勢変換テンプレート領域40とスライス画像枚数が少ない3次元現在画像36の1次抽出現在画像領域42との間で、角度ずれまで含めた高精度なマッチングを行う。このようにすることで、角度ずれまで含めた高精度な2段階パターンマッチングが実現できる。2次パターンマッチングの探索範囲として、1次パターンマッチングで求まった領域を含んだ狭い範囲を対象とすることで、1次パターンマッチングを粗い解像度で広範囲を対象に行って、見つけた1次抽出領域43を含む1次抽出現在画像領域42を用いて、2次パターンマッチングを密な解像度で行うことができ、パターンマッチングに要する時間を短縮することができる。   Secondary pattern matching will be described. In the secondary pattern matching, the position / orientation conversion template region 40 obtained by converting the position / orientation of the reference image template region 33 generated from the three-dimensional reference image 31 is generated by the position / orientation conversion unit 25 of the matching processing unit 22. In the secondary pattern matching, as shown in FIGS. 8 and 9, the posture change amount (rotation three axes) of the reference image template region 33 is added as a parameter at the time of matching. The secondary verification unit 17 shifts the angle between the position / orientation conversion template region 40 whose position / orientation is converted by the position / orientation conversion unit 25 and the primary extraction current image region 42 of the three-dimensional current image 36 with a small number of slice images. High-precision matching is included. By doing in this way, highly accurate two-step pattern matching including angle deviation is realizable. The primary extraction region found by performing a primary pattern matching on a wide range with a coarse resolution by targeting a narrow range including the region obtained by the primary pattern matching as a search range of the secondary pattern matching. Secondary pattern matching can be performed with high resolution using the primary extraction current image area 42 including 43, and the time required for pattern matching can be shortened.

図8に示した1次抽出現在画像領域42は、3つの1次抽出領域43a、43b、43cを含む直方体として表現した。位置姿勢が変換された基準画像テンプレート領域である位置姿勢変換テンプレート領域40aは、スライス画像37aの1次抽出領域43aをスキャン経路39aに沿ってラスタースキャン状に動かされる。同様に、位置姿勢が変換された位置姿勢変換テンプレート領域40bはスライス画像37bの1次抽出領域43bを
スキャン経路39bに沿ってラスタースキャン状に動かされ、位置姿勢が変換された位置姿勢変換テンプレート領域40cはスライス画像37cの1次抽出領域43cをスキャン経路39cに沿ってラスタースキャン状に動かされる。スキャン経路39b、39cは図が複雑にならないように簡略化して示した。
The primary extraction current image area 42 shown in FIG. 8 is expressed as a rectangular parallelepiped including three primary extraction areas 43a, 43b, and 43c. The position / orientation conversion template area 40a, which is the reference image template area whose position / orientation has been converted, is moved in a raster scan manner along the scan path 39a in the primary extraction area 43a of the slice image 37a. Similarly, the position / orientation conversion template region 40b in which the position / orientation has been converted is moved in a raster scan manner along the scan path 39b in the primary extraction region 43b of the slice image 37b. In 40c, the primary extraction region 43c of the slice image 37c is moved in a raster scan manner along the scan path 39c. The scanning paths 39b and 39c are shown in a simplified manner so as not to make the figure complicated.

2次パターンマッチングの際には、2次照合部17により、図9に示すように、位置姿勢変換テンプレート領域40の断面41と1次抽出現在画像領域42を構成するスライス画像37の1次抽出領域43との間で画像照合を行う。また、3次元現在画像36のスライス画像37において1次抽出現在画像領域42で区切られた画像であるスライス画像55と、断面41との間で画像照合を行ってもよい。位置姿勢変換テンプレート領域40の断面41は、3次元基準画像31の複数のスライス画像32から生成する。例えば、断面41のデータは、3次元基準画像31を構成する複数のスライス画像32から切り出したものである。通常、位置姿勢変換テンプレート領域40の断面41のデータ密度と3次元現在画像36の1次抽出領域43のデータ密度は異なることになるが、断面41の画素毎の相関値を計算すればよい。また、位置姿勢変換テンプレート領域40の断面41は、そのデータ密度が3次元現在画像36の1次抽出領域43のデータ密度と同様になるように補完したデータを含むものであってもよい。   At the time of the secondary pattern matching, the secondary verification unit 17 performs primary extraction of the slice image 37 constituting the cross section 41 of the position / orientation conversion template region 40 and the primary extraction current image region 42 as shown in FIG. Image collation with the area 43 is performed. In addition, image verification may be performed between the slice image 55 that is an image divided by the primary extraction current image region 42 in the slice image 37 of the three-dimensional current image 36 and the cross section 41. The cross section 41 of the position / orientation conversion template region 40 is generated from a plurality of slice images 32 of the three-dimensional reference image 31. For example, the data of the cross section 41 is cut out from a plurality of slice images 32 constituting the three-dimensional reference image 31. Normally, the data density of the cross section 41 of the position / orientation conversion template area 40 and the data density of the primary extraction area 43 of the three-dimensional current image 36 are different, but a correlation value for each pixel of the cross section 41 may be calculated. Further, the cross section 41 of the position / orientation conversion template region 40 may include data supplemented so that the data density thereof is the same as the data density of the primary extraction region 43 of the three-dimensional current image 36.

ここで、実施の形態1の2段階パターンマッチング方法についてまとめる。まず、照合処理部22の基準テンプレート領域生成部18は、3次元基準画像31から基準画像テンプレート領域33を生成する(基準画像テンプレート領域生成手順)。1次照合部16は、基準画像テンプレート領域33から3次元現在画像36に対して1次パターンマッチングを実行する(1次パターンマッチング手順)。1次パターンマッチングは、基準画像テンプレート領域33を構成するスライス画像53毎に、現在画像領域38を構成するスライス画像37との画像照合を行う。1次照合部16は、基準画像テンプレート領域33をスキャンする度に、現在画像領域38と基準画像テンプレート領域33との相関値を計算し(相関値計算手順)、1次パターンマッチングによって、現在画像領域38と基準画像テンプレート領域33との相関値が最も高くなった領域を包含するように1次抽出領域43を抽出する(1次抽出領域抽出手順)。1次照合部16は、現在画像領域38を構成するスライス画像37毎の1次抽出領域43を含むように、2次パターンマッチングに用いる検索対象領域である1次抽出現在画像領域42を生成する(検索対象生成手順)。実施の形態1の2段階パターンマッチング方法は、基準画像テンプレート領域生成手順と、1次パターンマッチング手順と、後述する2次パターンマッチング手順を含む。1次パターンマッチング手順は、相関値計算手順と、1次抽出領域抽出手順と、検索対象生成手順を含む。   Here, the two-stage pattern matching method of the first embodiment will be summarized. First, the reference template region generation unit 18 of the matching processing unit 22 generates a reference image template region 33 from the three-dimensional reference image 31 (reference image template region generation procedure). The primary matching unit 16 performs primary pattern matching on the three-dimensional current image 36 from the reference image template region 33 (primary pattern matching procedure). In the primary pattern matching, for each slice image 53 constituting the reference image template region 33, image matching with the slice image 37 constituting the current image region 38 is performed. The primary collation unit 16 calculates a correlation value between the current image region 38 and the reference image template region 33 every time the reference image template region 33 is scanned (correlation value calculation procedure). The primary extraction region 43 is extracted so as to include the region having the highest correlation value between the region 38 and the reference image template region 33 (primary extraction region extraction procedure). The primary collation unit 16 generates a primary extraction current image area 42 that is a search target area used for secondary pattern matching so as to include a primary extraction area 43 for each slice image 37 constituting the current image area 38. (Search target generation procedure). The two-stage pattern matching method of the first embodiment includes a reference image template region generation procedure, a primary pattern matching procedure, and a secondary pattern matching procedure described later. The primary pattern matching procedure includes a correlation value calculation procedure, a primary extraction region extraction procedure, and a search target generation procedure.

次に、照合処理部22の2次照合部17は、位置姿勢変換部25により基準画像テンプレート領域33の位置姿勢を変換した位置姿勢変換テンプレート領域40から、3次元現在画像36の1次抽出現在画像領域42に対して2次パターンマッチングを実行する(2次パターンマッチング手順)。2次パターンマッチングは、所定の位置姿勢に変換した位置姿勢変換テンプレート領域40の断面41を複数生成し(断面生成手順)、断面41毎に、1次抽出現在画像領域42を構成するスライス画像37の1次抽出領域43やスライス画像55と、当該断面41との間で画像照合を行う。2次照合部17は、位置姿勢変換テンプレート領域40をスキャンする度に、1次抽出現在画像領域42と位置姿勢変換テンプレート領域40の複数の断面41との相関値を計算する(相関値計算手順)。また、位置姿勢変換部25は、先の位置姿勢と異なる位置姿勢に変換し(位置姿勢変換手順)、2次照合部17は、当該位置姿勢における位置姿勢変換テンプレート領域40の断面41を複数生成し(断面生成手順)、位置姿勢変換テンプレート領域40をスキャンする度に、1次抽出現在画像領域42と位置姿勢変換テンプレート領域40の複数の断面41との相関値を計算する(相関値計算手順)。照合処理部22の2次照合部17は、計算した相関値のうち最も高い相関値となった3次元基準画像と3次元現在画像との位置姿勢関係(位置姿勢情報)を、最適解として選定する(最適解選定手順)。このように、3次元基準画像と3次元現在画像との両3次元画像が最も一致するようにパターンマッチングを実現する。2次パターンマッチング手順は、断面生成手順と、相関値計算手順と、位置姿勢変換手順と、最適解選定手順を含む。   Next, the secondary verification unit 17 of the verification processing unit 22 performs the primary extraction current of the three-dimensional current image 36 from the position / orientation conversion template region 40 obtained by converting the position / orientation of the reference image template region 33 by the position / orientation conversion unit 25. Secondary pattern matching is executed on the image area 42 (secondary pattern matching procedure). In the secondary pattern matching, a plurality of cross-sections 41 of the position / orientation conversion template region 40 converted into a predetermined position / orientation are generated (section generation procedure), and the slice image 37 constituting the primary extraction current image region 42 for each cross-section 41. The image is collated between the primary extraction region 43 and the slice image 55 and the cross section 41. Each time the secondary collation unit 17 scans the position / orientation conversion template area 40, the secondary collation unit 17 calculates a correlation value between the primary extracted current image area 42 and a plurality of cross sections 41 of the position / orientation conversion template area 40 (correlation value calculation procedure). ). In addition, the position / orientation conversion unit 25 converts the position / orientation into a position / orientation different from the previous position / orientation (position / orientation conversion procedure), and the secondary verification unit 17 generates a plurality of cross sections 41 of the position / orientation conversion template region 40 in the position / orientation. Each time the position / orientation conversion template area 40 is scanned, the correlation value between the primary extracted current image area 42 and the plurality of sections 41 of the position / orientation conversion template area 40 is calculated (correlation value calculation procedure). ). The secondary collation unit 17 of the collation processing unit 22 selects the position / orientation relationship (position / orientation information) between the three-dimensional reference image and the three-dimensional current image that have the highest correlation value among the calculated correlation values as the optimum solution. (Optimal solution selection procedure). In this way, pattern matching is realized so that the three-dimensional images of the three-dimensional reference image and the three-dimensional current image most closely match. The secondary pattern matching procedure includes a section generation procedure, a correlation value calculation procedure, a position / orientation conversion procedure, and an optimum solution selection procedure.

パターンマッチングが完了した後に、照合処理部22は、計算した相関値のうち最も高い相関値となった位置姿勢変換テンプレート領域40の位置姿勢から、3次元基準画像31と3次元現在画像36とを照合させた際の体位補正量(並進量、回転量)を計算する(体位補正量計算手順)。照合結果表示部23は、体位補正量や、この体位補正量で移動させた3次元現在画像を3次元基準画像に重ねて表示した画像等を計算機14のモニター画面に表示する。照合結果出力部24は、照合処理部22により3次元基準画像31と3次元現在画像36とを照合させた際の体位補正量(並進量、回転量)を出力する(体位補正量出力手順)。治療台制御パラメータ算出部26は、照合結果出力部24の出力値(並進3軸[ΔX、ΔY、ΔZ]、回転3軸[ΔA、ΔB、ΔC]の計6自由度)を、治療台8の各軸を制御するパラメータに変換し、すなわちパラメータを算出する(治療台制御パラメータ算出手順)。治療台8は、治療台制御パラメータ算出部26により計算された治療台制御パラメータに基づいて治療台8の各軸の駆動装置を駆動する(治療台駆動手順)。   After the pattern matching is completed, the matching processing unit 22 calculates the 3D reference image 31 and the 3D current image 36 from the position / orientation of the position / orientation conversion template region 40 having the highest correlation value among the calculated correlation values. The posture correction amount (translation amount, rotation amount) at the time of collation is calculated (position correction amount calculation procedure). The collation result display unit 23 displays on the monitor screen of the computer 14 the body position correction amount, an image obtained by superimposing the 3D current image moved by the body position correction amount on the 3D reference image, and the like. The collation result output unit 24 outputs a posture correction amount (translation amount, rotation amount) when the collation processing unit 22 collates the three-dimensional reference image 31 and the three-dimensional current image 36 (position correction amount output procedure). . The treatment table control parameter calculation unit 26 uses the output values of the matching result output unit 24 (total six degrees of freedom of three translational axes [ΔX, ΔY, ΔZ] and three rotation axes [ΔA, ΔB, ΔC]) as the treatment table 8. Are converted into parameters for controlling the respective axes, that is, parameters are calculated (treatment table control parameter calculation procedure). The treatment table 8 drives the driving device for each axis of the treatment table 8 based on the treatment table control parameter calculated by the treatment table control parameter calculation unit 26 (treatment table driving procedure).

実施の形態1による画像照合装置29は、3次元基準画像31から3次元現在画像36に1次パターンマッチングを行い、次に、1次パターンマッチングの結果に基づいて、3次元基準画像31から所定の2次パターンマッチング用のテンプレート領域である位置姿勢変換テンプレート領域40を生成し、3次元現在画像36から1次抽出領域43を含むように、2次パターンマッチングに用いる所定の検索対象領域である1次抽出現在画像領域42を生成するので、3次元現在画像36の断層画像数(スライス画像数)が3次元基準画像31よりも少ない場合であっても、精度の高い2段階パターンマッチングを実現することができる。   The image matching device 29 according to the first embodiment performs primary pattern matching from the three-dimensional reference image 31 to the three-dimensional current image 36, and then determines a predetermined value from the three-dimensional reference image 31 based on the result of the primary pattern matching. A position / orientation conversion template region 40 which is a template region for secondary pattern matching is generated, and is a predetermined search target region used for secondary pattern matching so as to include a primary extraction region 43 from the three-dimensional current image 36. Since the primary extraction current image region 42 is generated, even when the number of tomographic images (slice images) of the three-dimensional current image 36 is smaller than that of the three-dimensional reference image 31, high-precision two-stage pattern matching is realized. can do.

実施の形態1による画像照合装置29は、3次元現在画像36の断層画像数(スライス画像数)が3次元基準画像31よりも少ない場合であっても、精度の高い2段階パターンマッチングを実現することができるので、位置合わせの際のX線CT装置による3次元現在画像36の断層画像数を少なくすることができ、位置合わせの際のX線CT装置による患者の被ばく量を低減することができる。   The image matching device 29 according to the first embodiment realizes two-step pattern matching with high accuracy even when the number of tomographic images (slice images) of the three-dimensional current image 36 is smaller than that of the three-dimensional reference image 31. Therefore, the number of tomographic images of the three-dimensional current image 36 by the X-ray CT apparatus at the time of alignment can be reduced, and the exposure dose of the patient by the X-ray CT apparatus at the time of alignment can be reduced. it can.

実施の形態1による画像照合装置29は、3次元基準画像31から3次元現在画像36に1次パターンマッチングを実行した結果に基づいて、1次抽出現在画像領域42を生成し、現在画像領域38よりも狭い領域である1次抽出現在画像領域42を検索対象とすることで、1次パターンマッチングを粗い解像度で広範囲を対象に行って、見つけた1次抽出領域43を含む1次抽出現在画像領域42を用いて、2次パターンマッチングを密な解像度で行うことができ、パターンマッチングに要する時間を短縮することができる。   The image collating device 29 according to the first embodiment generates a primary extracted current image area 42 based on the result of executing the primary pattern matching from the 3D reference image 31 to the 3D current image 36, and the current image area 38. The primary extraction current image including the primary extraction area 43 found by performing the primary pattern matching on a wide area with a coarse resolution by making the primary extraction current image area 42 which is a narrower area as a search target. Using the region 42, the secondary pattern matching can be performed with a high resolution, and the time required for the pattern matching can be shortened.

実施の形態1による患者位置決め装置30は、画像照合装置29により計算された体位補正量に基づいて、治療計画の際の位置姿勢に合うようにすることができる。治療計画の際の位置姿勢に合うようにすることができるので、治療時の患部11が放射線治療のビーム照射中心12にくるように位置合わせすることができる。   The patient positioning device 30 according to the first embodiment can be adapted to the position and orientation in the treatment plan based on the body posture correction amount calculated by the image collating device 29. Since it can be adapted to the position and orientation at the time of treatment planning, it can be aligned so that the affected part 11 at the time of treatment comes to the beam irradiation center 12 of radiotherapy.

実施の形態1による患者位置決め装置30は、位置姿勢変換部25によって、3次元基準画像31から得られる基準画像テンプレート領域33から、3次元基準画像31よりも断層画像数(スライス画像数)が少ない3次元現在画像36にマッチングするのに適切な位置姿勢変換テンプレート領域40が生成でき、角度ずれまで含めた精度の高い2段階パ
ターンマッチングが実現できる。
The patient positioning device 30 according to the first embodiment has a smaller number of tomographic images (slice images) than the three-dimensional reference image 31 from the reference image template region 33 obtained from the three-dimensional reference image 31 by the position / orientation conversion unit 25. A position / orientation conversion template region 40 suitable for matching with the three-dimensional current image 36 can be generated, and two-stage pattern matching with high accuracy including an angle deviation can be realized.

実施の形態1による画像照合装置29によれば、放射線治療の治療計画の際に撮影された3次元基準画像31と治療の際に撮影される3次元現在画像36を各々読み込む3次元画像入力部21と、3次元基準画像31と3次元現在画像36とを照合し、3次元現在画像36における患部の位置姿勢を3次元基準画像31における患部の位置姿勢に合うように体位補正量を計算する照合処理部22と、を備え、照合処理部22は、3次元基準画像31から3次元現在画像36に対して1次パターンマッチングを行う1次照合部16と、3次元基準画像31又は3次元現在画像36の一方から1次パターンマッチングの結果に基づいて生成された所定のテンプレート領域(位置姿勢変換テンプレート領域40)から、所定のテンプレート領域(位置姿勢変換テンプレート領域40)の生成元とは異なる3次元基準画像31又は3次元現在画像36の他方から1次パターンマッチングの結果に基づいて生成された所定の検索対象領域42に対して、2次パターンマッチングを行う2次照合部17と、を有するので、3次元現在画像36の断層画像数が3次元基準画像31よりも少ない場合であっても、精度の高い2段階パターンマッチングを実現することができる。   According to the image collating device 29 according to the first embodiment, a three-dimensional image input unit that reads each of the three-dimensional reference image 31 photographed at the time of radiation therapy treatment planning and the three-dimensional current image 36 photographed at the time of treatment. 21, the three-dimensional reference image 31 and the three-dimensional current image 36 are collated, and the body position correction amount is calculated so that the position and orientation of the affected part in the three-dimensional current image 36 match the position and posture of the affected part in the three-dimensional reference image 31. A matching processing unit 22, and the matching processing unit 22 performs primary pattern matching on the three-dimensional current image 36 from the three-dimensional reference image 31 and the three-dimensional reference image 31 or three-dimensional. From a predetermined template region (position and orientation conversion template region 40) generated based on the result of the primary pattern matching from one of the current images 36, a predetermined template region (position For a predetermined search target region 42 generated based on the result of the primary pattern matching from the other of the three-dimensional reference image 31 or the three-dimensional current image 36 different from the generation source of the posture conversion template region 40) A second matching unit 17 that performs pattern matching, so that even if the number of tomographic images of the three-dimensional current image 36 is smaller than that of the three-dimensional reference image 31, high-precision two-stage pattern matching is realized. Can do.

実施の形態1による患者位置決め装置30によれば、画像照合装置29と、画像照合装置29によって計算された体位補正量に基づいて、治療台8の各軸を制御するパラメータを算出する治療台制御パラメータ算出部26と、を備え、画像照合装置29は、放射線治療の治療計画の際に撮影された3次元基準画像31と治療の際に撮影される3次元現在画像36を各々読み込む3次元画像入力部21と、3次元基準画像31と3次元現在画像36とを照合し、3次元現在画像36における患部の位置姿勢を3次元基準画像31における患部の位置姿勢に合うように体位補正量を計算する照合処理部22と、を備える。照合処理部22は、3次元基準画像31から3次元現在画像36に対して1次パターンマッチングを行う1次照合部16と、3次元基準画像31又は3次元現在画像36の一方から1次パターンマッチングの結果に基づいて生成された所定のテンプレート領域(位置姿勢変換テンプレート領域40)から、所定のテンプレート領域(位置姿勢変換テンプレート領域40)の生成元とは異なる3次元基準画像31又は3次元現在画像36の他方から1次パターンマッチングの結果に基づいて生成された所定の検索対象領域42に対して、2次パターンマッチングを行う2次照合部17と、を有するので、3次元現在画像36の断層画像数が3次元基準画像31よりも少ない場合であっても、精度の高い位置決めを行うことができる。   According to the patient positioning device 30 according to the first embodiment, the treatment table control that calculates the parameters for controlling each axis of the treatment table 8 based on the image matching device 29 and the body posture correction amount calculated by the image matching device 29. A parameter calculation unit 26, and the image collating device 29 reads a 3D reference image 31 photographed at the time of radiation therapy treatment planning and a 3D current image 36 photographed at the time of treatment, respectively. The input unit 21, the 3D reference image 31 and the 3D current image 36 are collated, and the position correction amount is adjusted so that the position and orientation of the affected part in the 3D current image 36 matches the position and orientation of the affected part in the 3D reference image 31. And a collation processing unit 22 to calculate. The matching processing unit 22 performs primary pattern matching on the three-dimensional current image 36 from the three-dimensional reference image 31 and the primary pattern from one of the three-dimensional reference image 31 or the three-dimensional current image 36. From a predetermined template region (position / orientation conversion template region 40) generated based on the matching result, a three-dimensional reference image 31 or a three-dimensional current image different from the generation source of the predetermined template region (position / orientation conversion template region 40) A secondary collating unit 17 that performs secondary pattern matching on a predetermined search target region 42 generated based on the result of primary pattern matching from the other side of the image 36. Even if the number of tomographic images is smaller than that of the three-dimensional reference image 31, highly accurate positioning can be performed.

実施の形態1による画像照合方法によれば、放射線治療の治療計画の際に撮影された3次元基準画像31と治療の際に撮影される3次元現在画像36とを照合する画像照合方法であって、3次元基準画像31から3次元現在画像36に対して1次パターンマッチングを実行する1次パターンマッチング手順と、3次元基準画像31又は3次元現在画像36の一方から1次パターンマッチングの結果に基づいて生成された所定のテンプレート領域(位置姿勢変換テンプレート領域40)から、所定のテンプレート領域(位置姿勢変換テンプレート領域40)の生成元とは異なる3次元基準画像31又は3次元現在画像36の他方から1次パターンマッチングの結果に基づいて生成された所定の検索対象領域42に対して、2次パターンマッチングを実行する2次パターンマッチング手順と、を含むので、3次元現在画像36の断層画像数が3次元基準画像31よりも少ない場合であっても、精度の高い2段階パターンマッチングを実現することができる。   The image collating method according to the first embodiment is an image collating method for collating the three-dimensional reference image 31 photographed at the time of radiation therapy treatment planning with the three-dimensional current image 36 photographed at the time of treatment. The primary pattern matching procedure for executing the primary pattern matching from the 3D reference image 31 to the 3D current image 36 and the result of the primary pattern matching from either the 3D reference image 31 or the 3D current image 36 The three-dimensional reference image 31 or the three-dimensional current image 36 that is different from the generation source of the predetermined template region (position / posture conversion template region 40) from the predetermined template region (position / posture conversion template region 40) generated based on The secondary pattern matching is performed on the predetermined search target area 42 generated based on the result of the primary pattern matching from the other side. The secondary pattern matching procedure is executed, so that even when the number of tomographic images of the three-dimensional current image 36 is smaller than that of the three-dimensional reference image 31, highly accurate two-step pattern matching can be realized. it can.

実施の形態2.
実施の形態2の2段階パターンマッチングでは、3次元基準画像31から3次元現在画像36に1次パターンマッチングを行い、次に、1次パターンマッチングの結果に基づいて、3次元現在画像36から所定の2次パターンマッチング用のテンプレート領域である
現在画像テンプレート領域44を生成し、3次元基準画像31の位置姿勢を変換した姿勢変換基準画像領域47を検索対象として、現在画像テンプレート領域44から姿勢変換基準画像領域47に対して2次パターンマッチングを行う。2次パターンマッチングは、1次パターンマッチングとは逆方向のパターンマッチングである。
Embodiment 2. FIG.
In the two-step pattern matching according to the second embodiment, primary pattern matching is performed from the three-dimensional reference image 31 to the three-dimensional current image 36, and then a predetermined value is obtained from the three-dimensional current image 36 based on the result of the primary pattern matching. A current image template region 44, which is a template region for secondary pattern matching, is generated, and the posture conversion reference image region 47 obtained by converting the position and posture of the three-dimensional reference image 31 is used as a search target to change the posture from the current image template region 44. Secondary pattern matching is performed on the reference image region 47. Secondary pattern matching is pattern matching in the opposite direction to primary pattern matching.

図10は本発明の実施の形態2による1次パターンマッチング方法を説明する図であり、図11は図10の1次パターンマッチング方法における基準画像テンプレート領域とスライス画像の関係を説明する図である。実施の形態2では、1次パターンマッチングにて、1次照合部16は回転3軸まで含めた探索を行って姿勢変化量を求める。   FIG. 10 is a diagram for explaining a primary pattern matching method according to Embodiment 2 of the present invention, and FIG. 11 is a diagram for explaining a relationship between a reference image template region and a slice image in the primary pattern matching method of FIG. . In the second embodiment, in the primary pattern matching, the primary verification unit 16 performs a search including up to three rotation axes to obtain the posture change amount.

図10に示した現在画像領域38は、3枚のスライス画像37a、37b、37cを含む直方体として表現した。実施の形態2の基準画像テンプレート領域となる位置姿勢変換テンプレート領域40a、40b、40cは、位置姿勢変換部25により位置姿勢を変換したものである。ただし、初めの位置姿勢は、デフォルト状態、例えば、回転3軸のパラメータは0になっている。位置姿勢が変換された基準画像テンプレート領域である位置姿勢変換テンプレート領域40aは、スライス画像37aをスキャン経路39aに沿ってラスタースキャン状に動かされる。同様に、位置姿勢が変換された位置姿勢変換テンプレート領域40bはスライス画像37bをスキャン経路39bに沿ってラスタースキャン状に動かされ、位置姿勢が変換された位置姿勢変換テンプレート領域40cはスライス画像37cをスキャン経路39cに沿ってラスタースキャン状に動かされる。スキャン経路39b、39cは図が複雑にならないように簡略化して示した。   The current image area 38 shown in FIG. 10 is expressed as a rectangular parallelepiped including three slice images 37a, 37b, and 37c. The position / orientation conversion template regions 40a, 40b, and 40c, which are reference image template regions of the second embodiment, are obtained by converting the position / orientation by the position / orientation conversion unit 25. However, the initial position and orientation are in the default state, for example, the parameters for the three rotation axes are zero. The position / orientation conversion template area 40a, which is the reference image template area whose position / orientation has been converted, is moved along the scan path 39a in a raster scan manner along the slice image 37a. Similarly, the position / orientation conversion template region 40b in which the position / orientation has been converted is moved in a raster scan manner along the scan path 39b in the slice / image 37b, and the position / orientation conversion template region 40c in which the position / orientation has been converted is converted into the slice image 37c. It is moved in the form of a raster scan along the scan path 39c. The scanning paths 39b and 39c are shown in a simplified manner so as not to make the figure complicated.

3次元現在画像36のスライス画像37a、37b、37cと位置姿勢変換テンプレート領域40との相関計算は、位置姿勢を変化させながら行う。例えば、回転3軸毎に所定の変化量や変化率で変化させて、相関計算を行い、次のスキャン位置に移動し、相関計算を行う。図11に示すように、1次照合部16は、位置姿勢変換テンプレート領域40の断面41と現在画像領域38を構成するスライス画像37との間で画像照合を行う。位置姿勢変換テンプレート領域40の断面41は、位置姿勢変換テンプレート領域40を初めの位置姿勢である3次元基準画像31のスライス画像32に平行な面で切断した面であり、3次元基準画像31の複数のスライス画像32から生成する(断面生成手順)。例えば、実施の形態1で説明した方法を用いることができる。すなわち、断面41のデータは、3次元基準画像31を構成する複数のスライス画像32から切り出したものとすることができる。また、位置姿勢変換テンプレート領域40の断面41は、そのデータ密度が3次元現在画像36のデータ密度と同様になるように補完したデータを含むものであってもよい。   The correlation calculation between the slice images 37a, 37b, and 37c of the three-dimensional current image 36 and the position / orientation conversion template region 40 is performed while changing the position and orientation. For example, the correlation calculation is performed by changing at a predetermined change amount or change rate for each of the three rotation axes, and the correlation calculation is performed by moving to the next scan position. As shown in FIG. 11, the primary collation unit 16 performs image collation between the cross section 41 of the position / orientation conversion template region 40 and the slice image 37 constituting the current image region 38. The cross section 41 of the position / orientation conversion template region 40 is a surface obtained by cutting the position / orientation conversion template region 40 along a plane parallel to the slice image 32 of the three-dimensional reference image 31 that is the initial position and orientation. It generates from a plurality of slice images 32 (section generation procedure). For example, the method described in Embodiment 1 can be used. That is, the data of the cross section 41 can be cut out from a plurality of slice images 32 constituting the three-dimensional reference image 31. The cross section 41 of the position / orientation conversion template region 40 may include data supplemented so that the data density thereof is the same as the data density of the three-dimensional current image 36.

次に、1次照合部16は、2次パターンマッチングに用いる現在画像テンプレート領域44を生成する。1次照合部16は、例えば、各スライス画像37a、37b、37c毎に回転3軸まで含めた探索の結果から、最も相関値の高い位置姿勢変換テンプレート領域40の断面41、その際の位置姿勢変換テンプレート領域40の姿勢変化量、及びその断面41に対応するスライス画像37の抽出領域を求める。1次照合部16は、求められたスライス画像毎の抽出領域のなかから、最も相関値の高い3次元現在画像の抽出領域を包含するように、現在画像テンプレート領域44を生成する。現在画像テンプレート領域44は2次元画像である。   Next, the primary collation unit 16 generates a current image template region 44 used for secondary pattern matching. The primary collation unit 16 determines, for example, the cross-section 41 of the position / orientation conversion template region 40 having the highest correlation value from the search result including up to three rotation axes for each slice image 37a, 37b, and 37c, and the position / orientation at that time. The posture change amount of the conversion template region 40 and the extraction region of the slice image 37 corresponding to the cross section 41 are obtained. The primary collation unit 16 generates a current image template region 44 so as to include the extracted region of the three-dimensional current image having the highest correlation value from the obtained extracted regions for each slice image. The current image template area 44 is a two-dimensional image.

次に、図12のように照合処理部22の位置姿勢変換部25にて、現在画像テンプレート領域44を生成する際に求めた前記姿勢変化量で3次元基準画像31全体の姿勢を変化させて、姿勢変換後の3次元姿勢変換基準画像45、すなわち姿勢変換基準画像領域47を生成する。図12は、本発明の実施の形態2による姿勢変換後の3次元基準画像を示す図である。スライス画像46a、46b、46c、46d、46eは、それぞれスライス
画像32a、32b、32c、32d、32eを前記姿勢変化量で姿勢を変化されたスライス画像である。
Next, as shown in FIG. 12, the position / orientation conversion unit 25 of the matching processing unit 22 changes the attitude of the entire three-dimensional reference image 31 with the attitude change amount obtained when the current image template region 44 is generated. Then, a three-dimensional posture conversion reference image 45 after posture conversion, that is, a posture conversion reference image region 47 is generated. FIG. 12 is a diagram showing a three-dimensional reference image after posture conversion according to Embodiment 2 of the present invention. The slice images 46a, 46b, 46c, 46d, and 46e are slice images in which the postures of the slice images 32a, 32b, 32c, 32d, and 32e are changed by the posture change amount.

次に、図13のように、2次照合部17は、現在画像テンプレート領域44を姿勢変換後の3次元姿勢変換基準画像45である姿勢変換基準画像領域47に対してスキャン経路49に沿って、ラスタースキャン状にマッチングさせることで、並進ずれのみを高速に検出することができる。図13は、本発明の実施の形態2による2次パターンマッチング方法を説明する図である。姿勢変換された姿勢変換基準画像領域47は、5枚のスライス画像46a、46b、46c、46d、46eを含む直方体として表現した。照合実行面48は、1次パターンマッチングにより3次元現在画像36のスライス画像37に対応した姿勢と最も相関値の高い姿勢に対応した画像面であり、すなわち姿勢変換基準画像領域47における3次元現在画像36のスライス画像37に対応した姿勢と同等の姿勢になる面である。2次照合部17は、姿勢変換基準画像領域47から所定の照合実行面48を、3次元姿勢変換基準画像45の複数のスライス画像46から生成する(照合実行面生成手順)。例えば、実施の形態1で説明した方法を用いることができる。すなわち、照合実行面48のデータは、3次元姿勢変換基準画像45を構成する複数のスライス画像から切り出したものとすることができる。また、照合実行面48は、そのデータ密度が現在画像テンプレート領域44のデータ密度と同様になるように補完したデータを含むものであってもよい。   Next, as shown in FIG. 13, the secondary collation unit 17 moves the current image template region 44 along the scan path 49 with respect to the posture conversion reference image region 47 which is the three-dimensional posture conversion reference image 45 after posture conversion. By matching in a raster scan shape, only translational deviation can be detected at high speed. FIG. 13 is a diagram for explaining a secondary pattern matching method according to the second embodiment of the present invention. The posture conversion reference image region 47 subjected to posture conversion is expressed as a rectangular parallelepiped including five slice images 46a, 46b, 46c, 46d, and 46e. The collation execution surface 48 is an image surface corresponding to the posture corresponding to the slice image 37 of the three-dimensional current image 36 and the posture having the highest correlation value by the primary pattern matching, that is, the three-dimensional current image in the posture conversion reference image region 47. This is a surface having a posture equivalent to the posture corresponding to the slice image 37 of the image 36. The secondary collation unit 17 generates a predetermined collation execution surface 48 from the posture conversion reference image region 47 from a plurality of slice images 46 of the three-dimensional posture conversion reference image 45 (collation execution surface generation procedure). For example, the method described in Embodiment 1 can be used. That is, the data of the collation execution surface 48 can be cut out from a plurality of slice images constituting the three-dimensional posture conversion reference image 45. The collation execution surface 48 may include data supplemented so that the data density is the same as the data density of the current image template region 44.

実施の形態2の2段階パターンマッチング方法についてまとめる。まず、照合処理部22は、位置姿勢変換部25によって、3次元基準画像31から位置姿勢を変換した位置姿勢変換テンプレート領域40を生成する(位置姿勢変換テンプレート領域生成手順)。照合処理部22の1次照合部16は、位置姿勢変換テンプレート領域40を3次元現在画像36に対して1次パターンマッチングを実行する(1次パターンマッチング手順)。1次パターンマッチングは、現在画像領域38を構成する各スライス画像37に対して、位置姿勢変換テンプレート領域40の位置姿勢を変化させる度(位置姿勢変換手順の実行する度)に、位置姿勢変換テンプレート領域40の断面41を生成し(断面生成手順)、この位置姿勢変換テンプレート領域40の断面41と現在画像領域38を構成するスライス画像37との間で画像照合を行う。   The two-stage pattern matching method of the second embodiment will be summarized. First, the collation processing unit 22 generates a position / orientation conversion template region 40 obtained by converting the position / orientation from the three-dimensional reference image 31 by the position / orientation conversion unit 25 (position / orientation conversion template region generation procedure). The primary matching unit 16 of the matching processing unit 22 performs primary pattern matching on the position / orientation conversion template region 40 with respect to the three-dimensional current image 36 (primary pattern matching procedure). The primary pattern matching is performed every time the position and orientation of the position and orientation conversion template region 40 is changed for each slice image 37 constituting the current image region 38 (every time the position and orientation conversion procedure is executed). A cross section 41 of the area 40 is generated (cross section generation procedure), and image verification is performed between the cross section 41 of the position / orientation conversion template area 40 and the slice image 37 constituting the current image area 38.

1次照合部16は、位置姿勢変換テンプレート領域40の位置姿勢を変化させる度に現在画像領域38と位置姿勢変換テンプレート領域40との相関値を計算する(相関値計算手順)。また、1次照合部16は、位置姿勢変換テンプレート領域40をスキャンする度に、現在画像領域38と位置姿勢変換テンプレート領域40との相関値を計算し、1次パターンマッチングによって、現在画像領域38と位置姿勢変換テンプレート領域40との相関値が最も高くなった位置姿勢変換テンプレート領域40の抽出領域を包含するように、現在画像テンプレート領域44を生成する(現在画像テンプレート領域生成手順)。   The primary collation unit 16 calculates a correlation value between the current image region 38 and the position / orientation conversion template region 40 every time the position / orientation of the position / orientation conversion template region 40 is changed (correlation value calculation procedure). Further, each time the position / orientation conversion template area 40 is scanned, the primary collation unit 16 calculates a correlation value between the current image area 38 and the position / orientation conversion template area 40 and performs primary pattern matching to obtain the current image area 38. The current image template region 44 is generated so as to include the extracted region of the position / orientation conversion template region 40 having the highest correlation value between the position / orientation conversion template region 40 (current image template region generation procedure).

次に、照合処理部22は、位置姿勢変換部25にて、現在画像テンプレート領域44を生成する際に求めた前記姿勢変化量で3次元基準画像31全体の姿勢を変化させて、姿勢変換後の3次元姿勢変換基準画像45、すなわち姿勢変換基準画像領域47を生成する(姿勢変換基準画像領域生成手順)。2次照合部17は、現在画像テンプレート領域44を、姿勢変換基準画像領域47に対して2次パターンマッチングを実行する(2次パターンマッチング手順)。2次パターンマッチングは、照合実行面生成手順にて照合実行面48を生成し、照合実行面生成手順で生成した照合実行面48と現在画像テンプレート領域44との画像照合を行う。この画像照合の際に、現在画像テンプレート領域44を回転させずに並進させながら、照合実行面48と現在画像テンプレート領域44との相関値を計算する(相関値計算手順)。   Next, the collation processing unit 22 causes the position / orientation conversion unit 25 to change the attitude of the entire three-dimensional reference image 31 by the attitude change amount obtained when the current image template region 44 is generated. 3D posture conversion reference image 45, that is, posture conversion reference image region 47 is generated (posture conversion reference image region generation procedure). The secondary collation unit 17 performs secondary pattern matching on the current image template region 44 against the posture conversion reference image region 47 (secondary pattern matching procedure). In the secondary pattern matching, the collation execution plane 48 is generated by the collation execution plane generation procedure, and the collation execution plane 48 generated by the collation execution plane generation procedure and the current image template region 44 are collated. At the time of this image matching, the correlation value between the matching execution surface 48 and the current image template region 44 is calculated while the current image template region 44 is translated without being rotated (correlation value calculation procedure).

2次パターンマッチングにおいて、照合処理部22の2次照合部17は、計算した相関値のうち最も高い相関値となった3次元姿勢変換基準画像45と現在画像テンプレート領域44との位置姿勢関係(位置姿勢情報)を、最適解として選定する(最適解選定手順)。このように、2段階マッチングによって3次元基準画像31と3次元現在画像36との両3次元画像が最も一致するようにパターンマッチングを実現する。実施の形態2の2段階パターンマッチング方法は、位置姿勢変換テンプレート領域生成手順と、1次パターンマッチング手順と、姿勢変換基準画像領域生成手順と、2次パターンマッチング手順を含む。1次パターンマッチング手順は、断面生成手順と、相関値計算手順と、位置姿勢変換手順と、現在画像テンプレート領域生成手順を含む。2次パターンマッチング手順は、照合実行面生成手順と、相関値計算手順と、最適解選定手順を含む。   In the secondary pattern matching, the secondary matching unit 17 of the matching processing unit 22 determines the position / posture relationship between the three-dimensional posture conversion reference image 45 that has the highest correlation value among the calculated correlation values and the current image template region 44 ( Position and orientation information) is selected as the optimal solution (optimal solution selection procedure). In this way, pattern matching is realized by two-stage matching so that the three-dimensional images of the three-dimensional reference image 31 and the three-dimensional current image 36 are the best match. The two-stage pattern matching method of the second embodiment includes a position / orientation conversion template region generation procedure, a primary pattern matching procedure, an orientation conversion reference image region generation procedure, and a secondary pattern matching procedure. The primary pattern matching procedure includes a section generation procedure, a correlation value calculation procedure, a position / orientation conversion procedure, and a current image template region generation procedure. The secondary pattern matching procedure includes a collation execution surface generation procedure, a correlation value calculation procedure, and an optimal solution selection procedure.

パターンマッチングが完了した後に、照合処理部22は、計算した相関値のうち最も高い相関値となった3次元姿勢変換基準画像45における高相関値領域の位置姿勢から、3次元基準画像31と3次元現在画像36とを照合させた際の体位補正量(並進量、回転量)を計算する(体位補正量計算手順)。照合結果表示部23は、体位補正量や、この体位補正量で移動させた3次元現在画像を3次元基準画像に重ねて表示した画像等を計算機14のモニター画面に表示する。照合結果出力部24は、照合処理部22により3次元基準画像31と3次元現在画像36とを照合させた際の体位補正量(並進量、回転量)を出力する(体位補正量出力手順)。治療台制御パラメータ算出部26は、照合結果出力部24の出力値(並進3軸[ΔX、ΔY、ΔZ]、回転3軸[ΔA、ΔB、ΔC]の計6自由度)を、治療台8の各軸を制御するパラメータに変換し、すなわちパラメータを算出する(治療台制御パラメータ算出手順)。治療台8は、治療台制御パラメータ算出部26により計算された治療台制御パラメータに基づいて治療台8の各軸の駆動装置を駆動する(治療台駆動手順)。   After the pattern matching is completed, the matching processing unit 22 determines the three-dimensional reference images 31 and 3 from the position and orientation of the high correlation value region in the three-dimensional orientation conversion reference image 45 that has the highest correlation value among the calculated correlation values. The posture correction amount (translation amount, rotation amount) when collating with the dimension current image 36 is calculated (position correction amount calculation procedure). The collation result display unit 23 displays on the monitor screen of the computer 14 the body position correction amount, an image obtained by superimposing the 3D current image moved by the body position correction amount on the 3D reference image, and the like. The collation result output unit 24 outputs a posture correction amount (translation amount, rotation amount) when the collation processing unit 22 collates the three-dimensional reference image 31 and the three-dimensional current image 36 (position correction amount output procedure). . The treatment table control parameter calculation unit 26 uses the output values of the matching result output unit 24 (total six degrees of freedom of three translational axes [ΔX, ΔY, ΔZ] and three rotation axes [ΔA, ΔB, ΔC]) as the treatment table 8. Are converted into parameters for controlling the respective axes, that is, parameters are calculated (treatment table control parameter calculation procedure). The treatment table 8 drives the driving device for each axis of the treatment table 8 based on the treatment table control parameter calculated by the treatment table control parameter calculation unit 26 (treatment table driving procedure).

実施の形態2による画像照合装置29は、3次元基準画像31の位置姿勢変換テンプレート領域40から3次元現在画像36に対して、回転3軸まで含めた画像照合である1次パターンマッチングを行い、次に、1次パターンマッチングの結果に基づいて、3次元現在画像36から2次パターンマッチング用のテンプレート領域である現在画像テンプレート領域44を生成するので、3次元現在画像36の断層画像数(スライス画像数)が3次元基準画像31よりも少ない場合であっても、精度の高い2段階パターンマッチングを実現することができる。   The image matching device 29 according to the second embodiment performs primary pattern matching, which is image matching including up to three rotation axes, from the position / orientation conversion template region 40 of the three-dimensional reference image 31 to the three-dimensional current image 36, Next, since the current image template region 44 that is a template region for secondary pattern matching is generated from the three-dimensional current image 36 based on the result of the primary pattern matching, the number of tomographic images of the three-dimensional current image 36 (slices) Even when the number of images) is smaller than that of the three-dimensional reference image 31, it is possible to realize two-step pattern matching with high accuracy.

実施の形態2による画像照合装置29は、3次元基準画像31から姿勢変換後の3次元基準画像である3次元姿勢変換基準画像45、すなわち姿勢変換基準画像領域47を生成することで、2次元の現在画像テンプレート領域44を用いて、姿勢変換基準画像領域47に対して回転移動を伴わない並進移動により直接パターンマッチングが実現できる。2次パターンマッチングにおいて、並進移動毎の相関値のみを計算するので、回転移動及び並進移動毎の相関値を計算する場合に比べて、2次パターンマッチングの高速化が図れる。   The image collating device 29 according to the second embodiment generates a three-dimensional posture conversion reference image 45 that is a three-dimensional reference image after posture conversion from the three-dimensional reference image 31, that is, a posture conversion reference image region 47. Using the current image template area 44, direct pattern matching can be realized by translation without rotational movement with respect to the orientation conversion reference image area 47. In the secondary pattern matching, only the correlation value for each translational movement is calculated, so that the speed of the secondary pattern matching can be increased as compared with the case of calculating the correlation value for each rotational movement and translational movement.

実施の形態3.
実施の形態3は、実施の形態1の1次パターンマッチング用の基準画像テンプレート領域33や、実施の形態2の位置姿勢変換テンプレート領域40の元となる基準画像テンプレート領域33を、人体データベース(アトラスモデル)を用いて生成する点で、実施の形態1及び2とは異なる。図14は、本発明の実施の形態3による画像照合装置及び患者位置決め装置の構成を示す図である。実施の形態3による画像照合装置29は、実施の形態1及び2による画像照合装置29とは、人体データベース入力部50と、平均テンプレート領域生成部51を有する点で異なる。実施の形態3による患者位置決め装置30は、画像照合装置29と治療台制御パラメータ算出部26を有する。
Embodiment 3 FIG.
In the third embodiment, the reference image template region 33 for primary pattern matching in the first embodiment and the reference image template region 33 that is the origin of the position / orientation conversion template region 40 in the second embodiment are stored in a human body database (Atlas). It differs from the first and second embodiments in that it is generated using a model. FIG. 14 is a diagram showing a configuration of an image collating device and a patient positioning device according to Embodiment 3 of the present invention. The image collation device 29 according to the third embodiment is different from the image collation device 29 according to the first and second embodiments in that it includes a human body database input unit 50 and an average template region generation unit 51. The patient positioning device 30 according to the third embodiment includes an image matching device 29 and a treatment table control parameter calculation unit 26.

人体データベース入力部50は、データベース装置等の記憶装置から、人体データベース(アトラスモデル)を取得する。平均テンプレート領域生成部51は、患者4、10の患部5、11に対応する人体データベースの臓器部分から平均テンプレート領域54を切り出す。照合処理部22の基準テンプレート領域生成部18は、この平均テンプレート領域54を、3次元基準画像31にパターンマッチングすることで、基準画像テンプレート領域33を自動生成する(基準画像テンプレート領域生成手順)。   The human body database input unit 50 acquires a human body database (atlas model) from a storage device such as a database device. The average template region generation unit 51 cuts out the average template region 54 from the organ part of the human body database corresponding to the affected parts 5 and 11 of the patients 4 and 10. The reference template region generation unit 18 of the matching processing unit 22 automatically generates the reference image template region 33 by pattern matching the average template region 54 with the three-dimensional reference image 31 (reference image template region generation procedure).

上記の基準画像テンプレート領域33を用いて、実施の形態1の2段階パターンマッチングや実施の形態2の2段階パターンマッチングを実行する。このようにすることで、3次元基準画像上にあらかじめ患部を示す情報(患部形状等)を準備してなくても、2段階パターンマッチングを実現できる。   The two-step pattern matching of the first embodiment and the two-step pattern matching of the second embodiment are executed using the reference image template region 33 described above. By doing in this way, two-step pattern matching can be realized without preparing information (affected part shape or the like) indicating the affected part in advance on the three-dimensional reference image.

なお、平均テンプレート領域生成部51は、患者4、10の患部5、11に対応する人体データベースの臓器部分から2次元の平均テンプレート領域を切り出すことも考えられる。2次元の平均テンプレート領域54の場合は、2次元の平均テンプレート領域を複数切り出して、複数の2次元の平均テンプレート領域を束ねて、照合処理部22に出力してもよい。照合処理部22の基準テンプレート領域生成部18は、この複数の2次元の平均テンプレート領域を、3次元基準画像31にパターンマッチングすることで、基準画像テンプレート領域33を自動生成する。   Note that the average template region generation unit 51 may cut out a two-dimensional average template region from the organ portion of the human body database corresponding to the affected portions 5 and 11 of the patients 4 and 10. In the case of the two-dimensional average template region 54, a plurality of two-dimensional average template regions may be cut out, and a plurality of two-dimensional average template regions may be bundled and output to the matching processing unit 22. The reference template region generation unit 18 of the matching processing unit 22 automatically generates the reference image template region 33 by pattern matching the plurality of two-dimensional average template regions to the three-dimensional reference image 31.

16…1次照合部、17…2次照合部、18…基準テンプレート領域生成部、21…3次元画像入力部、22…照合処理部、25…位置姿勢変換部、26…治療台制御パラメータ算出部、29…画像照合装置、30…患者位置決め装置、31…3次元基準画像、33…基準画像テンプレート領域、36…3次元現在画像、40、40a、40b、40c…位置姿勢変換テンプレート領域、41…断面、42…1次抽出現在画像領域、44…現在画像テンプレート領域、45…3次元姿勢変換基準画像、48…照合実行面、50…人体データベース入力部、51…平均テンプレート領域生成部。   DESCRIPTION OF SYMBOLS 16 ... Primary collation part, 17 ... Secondary collation part, 18 ... Reference | standard template area | region production | generation part, 21 ... Three-dimensional image input part, 22 ... Collation processing part, 25 ... Position and orientation conversion part, 26 ... Treatment table control parameter calculation , 29 ... Image collation device, 30 ... Patient positioning device, 31 ... Three-dimensional reference image, 33 ... Reference image template region, 36 ... Three-dimensional current image, 40, 40a, 40b, 40c ... Position and orientation conversion template region, 41 ... Section, 42... Primary extraction current image region, 44... Current image template region, 45... 3D posture conversion reference image, 48.

Claims (11)

放射線治療の治療計画の際に撮影された3次元基準画像と治療の際に撮影される3次元現在画像を各々読み込む3次元画像入力部と、
前記3次元基準画像と前記3次元現在画像とを照合し、前記3次元現在画像における患部の位置姿勢を前記3次元基準画像における患部の位置姿勢に合うように体位補正量を計算する照合処理部と、を備え、
前記照合処理部は、前記3次元基準画像から前記3次元現在画像に対して1次パターンマッチングを行う1次照合部と、
前記3次元基準画像又は前記3次元現在画像の一方から前記1次パターンマッチングの結果に基づいて生成された所定のテンプレート領域から、前記所定のテンプレート領域の生成元とは異なる前記3次元基準画像又は前記3次元現在画像の他方から前記1次パターンマッチングの結果に基づいて生成された所定の検索対象領域に対して、2次パターンマッチングを行う2次照合部と、
前記3次元基準画像に準備された患部情報に基づいて、前記3次元基準画像から3次元領域の基準画像テンプレート領域を生成する基準テンプレート領域生成部と、
3次元画像の位置姿勢を変換する位置姿勢変換部と、を有し、
前記位置姿勢変換部は、前記基準画像テンプレート領域の位置姿勢を所定の位置姿勢に変換した位置姿勢変換テンプレート領域を生成し、
前記1次照合部は、前記1次パターンマッチングの際に、前記位置姿勢変換テンプレート領域から前記3次元現在画像に対してパターンマッチングを行うことを特徴とする画像照合装置。
A three-dimensional image input unit for reading a three-dimensional reference image captured during a radiotherapy treatment plan and a three-dimensional current image captured during treatment;
A collation processing unit that collates the three-dimensional reference image with the three-dimensional current image and calculates a body position correction amount so that the position and orientation of the affected part in the three-dimensional current image matches the position and orientation of the affected part in the three-dimensional reference image And comprising
The verification processing unit includes a primary verification unit that performs primary pattern matching on the three-dimensional current image from the three-dimensional reference image;
From the predetermined template region generated based on the result of the primary pattern matching from one of the three-dimensional reference image or the three-dimensional current image, the three-dimensional reference image different from the generation source of the predetermined template region or A secondary matching unit that performs secondary pattern matching on a predetermined search target region generated based on the result of the primary pattern matching from the other of the three-dimensional current image;
A reference template region generation unit that generates a reference image template region of a three-dimensional region from the three-dimensional reference image based on diseased part information prepared in the three-dimensional reference image;
The position and orientation converter for converting the position and orientation of the three-dimensional image, the possess,
The position / orientation conversion unit generates a position / orientation conversion template region obtained by converting the position / orientation of the reference image template region into a predetermined position / orientation;
The primary collating unit performs pattern matching on the three-dimensional current image from the position / orientation conversion template region during the primary pattern matching .
放射線治療の治療計画の際に撮影された3次元基準画像と治療の際に撮影される3次元現在画像を各々読み込む3次元画像入力部と、
前記3次元基準画像と前記3次元現在画像とを照合し、前記3次元現在画像における患部の位置姿勢を前記3次元基準画像における患部の位置姿勢に合うように体位補正量を計算する照合処理部と、
データベース装置から人体データベースを取得する人体データベース入力部と、
前記人体データベースにおける患者の患部に対応する臓器部分から平均テンプレート領域を生成する平均テンプレート領域生成部と、を備え、
前記照合処理部は、前記3次元基準画像から前記3次元現在画像に対して1次パターンマッチングを行う1次照合部と、
前記3次元基準画像又は前記3次元現在画像の一方から前記1次パターンマッチングの結果に基づいて生成された所定のテンプレート領域から、前記所定のテンプレート領域の生成元とは異なる前記3次元基準画像又は前記3次元現在画像の他方から前記1次パターンマッチングの結果に基づいて生成された所定の検索対象領域に対して、2次パターンマッチングを行う2次照合部と、
前記平均テンプレート領域から前記3次元基準画像に対してパターンマッチングを行い、前記パターンマッチングの結果に基づいて前記3次元基準画像から3次元領域の基準画像テンプレート領域を生成する基準テンプレート領域生成部と、
3次元画像の位置姿勢を変換する位置姿勢変換部と、を有し、
前記位置姿勢変換部は、前記基準画像テンプレート領域の位置姿勢を所定の位置姿勢に変換した位置姿勢変換テンプレート領域を生成し、
前記1次照合部は、前記1次パターンマッチングの際に、前記位置姿勢変換テンプレート領域から前記3次元現在画像に対してパターンマッチングを行うことを特徴とする画像照合装置。
A three-dimensional image input unit for reading a three-dimensional reference image captured during a radiotherapy treatment plan and a three-dimensional current image captured during treatment;
A collation processing unit that collates the three-dimensional reference image with the three-dimensional current image, and calculates a body position correction amount so that the position and orientation of the affected part in the three-dimensional current image matches the position and orientation of the affected part in the three-dimensional reference image When,
A human body database input unit for acquiring a human body database from the database device;
An average template region generating unit that generates an average template region from an organ portion corresponding to an affected area of a patient in the human body database,
The verification processing unit includes a primary verification unit that performs primary pattern matching on the three-dimensional current image from the three-dimensional reference image;
From the predetermined template region generated based on the result of the primary pattern matching from one of the three-dimensional reference image or the three-dimensional current image, the three-dimensional reference image different from the generation source of the predetermined template region or A secondary matching unit that performs secondary pattern matching on a predetermined search target region generated based on the result of the primary pattern matching from the other of the three-dimensional current image;
A reference template region generating unit that performs pattern matching on the three-dimensional reference image from the average template region, and generates a reference image template region of the three-dimensional region from the three-dimensional reference image based on the result of the pattern matching ;
The position and orientation converter for converting the position and orientation of the three-dimensional image, the possess,
The position / orientation conversion unit generates a position / orientation conversion template region obtained by converting the position / orientation of the reference image template region into a predetermined position / orientation;
The primary verification unit, when said primary pattern matching, the position and orientation transformation from said template region 3 dimensional current images matching device you and performs pattern matching for the image.
前記1次照合部は、前記位置姿勢変換テンプレート領域において前記3次元基準画像のスライス画像に平行な断面を生成し、前記3次元現在画像と前記断面との間でパターンマッチングを行い、前記断面の複数のなかから最も相関値の高い断面である高相関断面の決定、前記位置姿勢変換テンプレート領域における姿勢変化量の演算、及び前記3次元現在画像における前記高相関断面に対応する抽出領域の抽出を実行することを特徴とする請求項1または2に記載の画像照合装置。 The primary verification unit generates a cross section parallel to the slice image of the three-dimensional reference image in the position / orientation conversion template region , performs pattern matching between the three-dimensional current image and the cross section, and Determination of a highly correlated section that is a section having the highest correlation value from among a plurality of sections, calculation of a posture change amount in the position / orientation conversion template region, and extraction of an extraction region corresponding to the highly correlated section in the three-dimensional current image The image collating apparatus according to claim 1, wherein the image collating apparatus is executed. 前記1次照合部は、前記1次パターンマッチングの際に抽出された前記抽出領域を包含するように前記所定のテンプレート領域である現在画像テンプレート領域を生成し、
前記位置姿勢変換部は、前記3次元基準画像の位置姿勢を、前記現在画像テンプレート領域に対応する前記抽出領域の姿勢変化量だけ変換した姿勢変換基準画像領域を生成し、
前記2次照合部は、前記2次パターンマッチングの際に、前記現在画像テンプレート領域から前記検索対象領域である前記姿勢変換基準画像領域に対してパターンマッチングを行うことを特徴とする請求項記載の画像照合装置。
The primary collation unit generates a current image template region that is the predetermined template region so as to include the extraction region extracted at the time of the primary pattern matching,
The position / orientation conversion unit generates an attitude conversion reference image region obtained by converting the position / orientation of the three-dimensional reference image by the amount of change in posture of the extraction region corresponding to the current image template region;
The secondary verification unit, said when the secondary pattern matching, the current claim 3, wherein the performing pattern matching with respect to the posture changing reference image area that is the search target area from the image template region Image matching device.
前記2次照合部は、前記姿勢変換基準画像領域において前記3次元現在画像のスライス画像に平行な断面である照合実行面を生成し、前記現在画像テンプレート領域と、前記照合実行面との間でパターンマッチングを行うことを特徴とする請求項記載の画像照合装置。 The secondary collation unit generates a collation execution surface that is a cross section parallel to the slice image of the three-dimensional current image in the posture conversion reference image region , and between the current image template region and the collation execution surface. The image matching apparatus according to claim 4, wherein pattern matching is performed. 請求項1乃至のいずれか1項に記載の画像照合装置と、
前記画像照合装置によって計算された体位補正量に基づいて、治療台の各軸を制御するパラメータを算出する治療台制御パラメータ算出部と、を備えたことを特徴とする患者位置決め装置。
An image collation device according to any one of claims 1 to 5 ,
A patient positioning apparatus comprising: a treatment table control parameter calculation unit that calculates parameters for controlling each axis of the treatment table based on the posture correction amount calculated by the image collating device.
放射線治療の治療計画の際に撮影された3次元基準画像と治療の際に撮影される3次元現在画像とを照合する画像照合方法であって、
前記3次元基準画像から3次元領域の基準画像テンプレート領域を生成する基準画像テンプレート領域生成手順と、
前記基準画像テンプレート領域の位置姿勢を所定の位置姿勢に変換した位置姿勢変換テンプレート領域を生成する位置姿勢変換テンプレート領域生成手順と
前記位置姿勢変換テンプレート領域から前記3次元現在画像に対して1次パターンマッチングを実行する1次パターンマッチング手順と、
記1次パターンマッチングの結果に基づいて生成された所定のテンプレート領域である前記位置姿勢変換テンプレート領域から、前記3次元現在画像から前記1次パターンマッチングの結果に基づいて生成された所定の検索対象領域に対して、2次パターンマッチングを実行する2次パターンマッチング手順と、を含むことを特徴とする画像照合方法。
An image collation method for collating a three-dimensional reference image photographed during radiation therapy treatment planning with a three-dimensional current image photographed during treatment,
A reference image template region generation procedure for generating a reference image template region of a three-dimensional region from the three-dimensional reference image;
A position and orientation conversion template region generation procedure for generating a position and orientation conversion template region obtained by converting the position and orientation of the reference image template region into a predetermined position and orientation ;
A primary pattern matching procedure for performing primary pattern matching on the three-dimensional current image from the position and orientation conversion template region ;
Before Symbol primary pattern wherein the position and orientation transformation template region is a predetermined template region generated based on the result of the matching, which is generated based on the prior Symbol 3-dimensional current picture image or al the primary pattern matching result And a secondary pattern matching procedure for performing secondary pattern matching on a predetermined search target region.
放射線治療の治療計画の際に撮影された3次元基準画像と治療の際に撮影される3次元現在画像を各々読み込む3次元画像入力部と、
前記3次元基準画像と前記3次元現在画像とを照合し、前記3次元現在画像における患部の位置姿勢を前記3次元基準画像における患部の位置姿勢に合うように体位補正量を計算する照合処理部と、を備え、
前記照合処理部は、前記3次元基準画像から前記3次元現在画像に対して1次パターンマッチングを行う1次照合部と、
前記3次元基準画像又は前記3次元現在画像の一方から前記1次パターンマッチングの結果に基づいて生成された所定のテンプレート領域から、前記所定のテンプレート領域の生成元とは異なる前記3次元基準画像又は前記3次元現在画像の他方から前記1次パターンマッチングの結果に基づいて生成された所定の検索対象領域に対して、2次パターンマッチングを行う2次照合部と、
前記3次元基準画像に準備された患部情報に基づいて、前記3次元基準画像から3次元領域の基準画像テンプレート領域を生成する基準テンプレート領域生成部と、
3次元画像の位置姿勢を変換する位置姿勢変換部と、を有し、
前記位置姿勢変換部は、前記基準画像テンプレート領域の位置姿勢を所定の位置姿勢に変換した位置姿勢変換テンプレート領域を生成し、
前記1次照合部は、前記3次元現在画像から前記基準画像テンプレート領域との相関値が最も高くなった領域を包含するように前記検索対象領域である1次抽出現在画像領域を生成し、
前記2次照合部は、前記2次パターンマッチングの際に、前記所定のテンプレート領域である前記位置姿勢変換テンプレート領域から前記1次抽出現在画像領域に対してパターンマッチングを行うことを特徴とする画像照合装置。
A three-dimensional image input unit for reading a three-dimensional reference image captured during a radiotherapy treatment plan and a three-dimensional current image captured during treatment;
A collation processing unit that collates the three-dimensional reference image with the three-dimensional current image and calculates a body position correction amount so that the position and orientation of the affected part in the three-dimensional current image matches the position and orientation of the affected part in the three-dimensional reference image And comprising
The verification processing unit includes a primary verification unit that performs primary pattern matching on the three-dimensional current image from the three-dimensional reference image;
From the predetermined template region generated based on the result of the primary pattern matching from one of the three-dimensional reference image or the three-dimensional current image, the three-dimensional reference image different from the generation source of the predetermined template region or A secondary matching unit that performs secondary pattern matching on a predetermined search target region generated based on the result of the primary pattern matching from the other of the three-dimensional current image;
A reference template region generation unit that generates a reference image template region of a three-dimensional region from the three-dimensional reference image based on diseased part information prepared in the three-dimensional reference image;
The position and orientation converter for converting the position and orientation of the three-dimensional image, the possess,
The position / orientation conversion unit generates a position / orientation conversion template region obtained by converting the position / orientation of the reference image template region into a predetermined position / orientation;
The primary collation unit generates a primary extraction current image region that is the search target region so as to include a region having a highest correlation value with the reference image template region from the three-dimensional current image,
The secondary verification unit performs pattern matching on the primary extracted current image area from the position / orientation conversion template area, which is the predetermined template area, in the secondary pattern matching. Verification device.
放射線治療の治療計画の際に撮影された3次元基準画像と治療の際に撮影される3次元現在画像を各々読み込む3次元画像入力部と、
前記3次元基準画像と前記3次元現在画像とを照合し、前記3次元現在画像における患部の位置姿勢を前記3次元基準画像における患部の位置姿勢に合うように体位補正量を計算する照合処理部と、
データベース装置から人体データベースを取得する人体データベース入力部と、
前記人体データベースにおける患者の患部に対応する臓器部分から平均テンプレート領域を生成する平均テンプレート領域生成部と、を備え、
前記照合処理部は、前記3次元基準画像から前記3次元現在画像に対して1次パターンマッチングを行う1次照合部と、
前記3次元基準画像又は前記3次元現在画像の一方から前記1次パターンマッチングの結果に基づいて生成された所定のテンプレート領域から、前記所定のテンプレート領域の生成元とは異なる前記3次元基準画像又は前記3次元現在画像の他方から前記1次パターンマッチングの結果に基づいて生成された所定の検索対象領域に対して、2次パターンマッチングを行う2次照合部と、
前記平均テンプレート領域から前記3次元基準画像に対してパターンマッチングを行い、前記パターンマッチングの結果に基づいて前記3次元基準画像から3次元領域の基準画像テンプレート領域を生成する基準テンプレート領域生成部と、
3次元画像の位置姿勢を変換する位置姿勢変換部と、を有し、
前記位置姿勢変換部は、前記基準画像テンプレート領域の位置姿勢を所定の位置姿勢に変換した位置姿勢変換テンプレート領域を生成し、
前記1次照合部は、前記3次元現在画像から前記基準画像テンプレート領域との相関値が最も高くなった領域を包含するように前記検索対象領域である1次抽出現在画像領域を生成し、
前記2次照合部は、前記2次パターンマッチングの際に、前記所定のテンプレート領域である前記位置姿勢変換テンプレート領域から前記1次抽出現在画像領域に対してパターンマッチングを行うことを特徴とする画像照合装置。
A three-dimensional image input unit for reading a three-dimensional reference image captured during a radiotherapy treatment plan and a three-dimensional current image captured during treatment;
A collation processing unit that collates the three-dimensional reference image with the three-dimensional current image and calculates a body position correction amount so that the position and orientation of the affected part in the three-dimensional current image matches the position and orientation of the affected part in the three-dimensional reference image When,
A human body database input unit for acquiring a human body database from the database device;
An average template region generating unit that generates an average template region from an organ portion corresponding to an affected area of a patient in the human body database,
The verification processing unit includes a primary verification unit that performs primary pattern matching on the three-dimensional current image from the three-dimensional reference image;
From the predetermined template region generated based on the result of the primary pattern matching from one of the three-dimensional reference image or the three-dimensional current image, the three-dimensional reference image different from the generation source of the predetermined template region or A secondary matching unit that performs secondary pattern matching on a predetermined search target region generated based on the result of the primary pattern matching from the other of the three-dimensional current image;
A reference template region generating unit that performs pattern matching on the three-dimensional reference image from the average template region, and generates a reference image template region of the three-dimensional region from the three-dimensional reference image based on the result of the pattern matching;
The position and orientation converter for converting the position and orientation of the three-dimensional image, the possess,
The position / orientation conversion unit generates a position / orientation conversion template region obtained by converting the position / orientation of the reference image template region into a predetermined position / orientation;
The primary collation unit generates a primary extraction current image region that is the search target region so as to include a region having a highest correlation value with the reference image template region from the three-dimensional current image,
The secondary matching unit, when the secondary pattern matching, you and performing pattern matching with respect to the predetermined said primary extraction current image area from the position and orientation transformation template region is a template region images matching device.
前記2次照合部は、前記位置姿勢変換テンプレート領域において前記1次抽出現在画像領域を構成するスライス画像に平行な断面を複数生成し、前記1次抽出現在画像領域と、複数の前記断面との間でパターンマッチングを行うことを特徴とする請求項8または9に記載の画像照合装置。 The secondary verification unit generates a plurality of cross sections parallel to a slice image constituting the primary extraction current image area in the position / orientation conversion template area , and the primary extraction current image area and the plurality of cross sections The image matching apparatus according to claim 8 , wherein pattern matching is performed between them. 請求項乃至10のいずれか1項に記載の画像照合装置と、
前記画像照合装置によって計算された体位補正量に基づいて、治療台の各軸を制御するパラメータを算出する治療台制御パラメータ算出部と、を備えたことを特徴とする患者位置決め装置。
The image collation device according to any one of claims 8 to 10 ,
A patient positioning apparatus comprising: a treatment table control parameter calculation unit that calculates parameters for controlling each axis of the treatment table based on the posture correction amount calculated by the image collating device.
JP2011130074A 2011-06-10 2011-06-10 Image collation device, patient positioning device, and image collation method Expired - Fee Related JP5693388B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011130074A JP5693388B2 (en) 2011-06-10 2011-06-10 Image collation device, patient positioning device, and image collation method
TW100141223A TWI425963B (en) 2011-06-10 2011-11-11 Image collating apparatus, patient positioning apparatus, and image collating method
CN201210022145.2A CN102814006B (en) 2011-06-10 2012-01-13 Image contrast device, patient positioning device and image contrast method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011130074A JP5693388B2 (en) 2011-06-10 2011-06-10 Image collation device, patient positioning device, and image collation method

Publications (3)

Publication Number Publication Date
JP2012254243A JP2012254243A (en) 2012-12-27
JP2012254243A5 JP2012254243A5 (en) 2014-05-29
JP5693388B2 true JP5693388B2 (en) 2015-04-01

Family

ID=47298678

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011130074A Expired - Fee Related JP5693388B2 (en) 2011-06-10 2011-06-10 Image collation device, patient positioning device, and image collation method

Country Status (3)

Country Link
JP (1) JP5693388B2 (en)
CN (1) CN102814006B (en)
TW (1) TWI425963B (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018051557A1 (en) 2016-09-15 2018-03-22 Kabushiki Kaisha Toshiba Medical image processing apparatus, treatment system, and medical image processing program
KR20230021089A (en) 2020-08-04 2023-02-13 도시바 에너지시스템즈 가부시키가이샤 Medical image processing apparatus, treatment system, medical image processing method, and storage medium

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI573565B (en) * 2013-01-04 2017-03-11 shu-long Wang Cone - type beam tomography equipment and its positioning method
US10092251B2 (en) * 2013-03-15 2018-10-09 Varian Medical Systems, Inc. Prospective evaluation of tumor visibility for IGRT using templates generated from planning CT and contours
JP6192107B2 (en) * 2013-12-10 2017-09-06 Kddi株式会社 Video instruction method, system, terminal, and program capable of superimposing instruction image on photographing moving image
CN104135609B (en) * 2014-06-27 2018-02-23 小米科技有限责任公司 Auxiliary photo-taking method, apparatus and terminal
JP6338965B2 (en) * 2014-08-08 2018-06-06 キヤノンメディカルシステムズ株式会社 Medical apparatus and ultrasonic diagnostic apparatus
JP6452987B2 (en) * 2014-08-13 2019-01-16 キヤノンメディカルシステムズ株式会社 Radiation therapy system
US9878177B2 (en) 2015-01-28 2018-01-30 Elekta Ab (Publ) Three dimensional localization and tracking for adaptive radiation therapy
JP6164662B2 (en) 2015-11-18 2017-07-19 みずほ情報総研株式会社 Treatment support system, operation method of treatment support system, and treatment support program
JP6869086B2 (en) * 2017-04-20 2021-05-12 富士フイルム株式会社 Alignment device, alignment method and alignment program
CN109859213B (en) * 2019-01-28 2021-10-12 艾瑞迈迪科技石家庄有限公司 Method and device for detecting bone key points in joint replacement surgery
CN114073827B (en) * 2020-08-15 2023-08-04 中硼(厦门)医疗器械有限公司 Radiation irradiation system and control method thereof

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5784431A (en) * 1996-10-29 1998-07-21 University Of Pittsburgh Of The Commonwealth System Of Higher Education Apparatus for matching X-ray images with reference images
JP3748433B2 (en) * 2003-03-05 2006-02-22 株式会社日立製作所 Bed positioning device and positioning method thereof
JP2007014435A (en) * 2005-07-06 2007-01-25 Fujifilm Holdings Corp Image processing device, method and program
JP4310319B2 (en) * 2006-03-10 2009-08-05 三菱重工業株式会社 Radiotherapy apparatus control apparatus and radiation irradiation method
JP4425879B2 (en) * 2006-05-01 2010-03-03 株式会社日立製作所 Bed positioning apparatus, positioning method therefor, and particle beam therapy apparatus
JP4956458B2 (en) * 2008-02-13 2012-06-20 三菱電機株式会社 Patient positioning device and method
JP5233374B2 (en) * 2008-04-04 2013-07-10 大日本印刷株式会社 Medical image processing system
JP2010069099A (en) * 2008-09-19 2010-04-02 Toshiba Corp Image processing apparatus and x-ray computed tomography apparatus
JP5836267B2 (en) * 2009-05-18 2015-12-24 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Method and system for markerless tracking registration and calibration for an electromagnetic tracking endoscope system
TWI381828B (en) * 2009-09-01 2013-01-11 Univ Chang Gung Method of making artificial implants

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018051557A1 (en) 2016-09-15 2018-03-22 Kabushiki Kaisha Toshiba Medical image processing apparatus, treatment system, and medical image processing program
KR20230021089A (en) 2020-08-04 2023-02-13 도시바 에너지시스템즈 가부시키가이샤 Medical image processing apparatus, treatment system, medical image processing method, and storage medium
DE112021004133T5 (en) 2020-08-04 2023-05-17 Toshiba Energy Systems & Solutions Corporation Medical image processing device, treatment system, medical image processing method and program
DE112021004133B4 (en) 2020-08-04 2025-03-20 Toshiba Energy Systems & Solutions Corporation Medical image processing device, treatment system, medical image processing method and program

Also Published As

Publication number Publication date
CN102814006A (en) 2012-12-12
JP2012254243A (en) 2012-12-27
TWI425963B (en) 2014-02-11
CN102814006B (en) 2015-05-06
TW201249496A (en) 2012-12-16

Similar Documents

Publication Publication Date Title
JP5693388B2 (en) Image collation device, patient positioning device, and image collation method
CN109419524B (en) Control of medical imaging system
JP7098485B2 (en) Virtual alignment image used for imaging
US10821301B2 (en) Treatment assistance system and operation method therefor, and storage medium for storing treatment assistance program
JP5603005B2 (en) High-precision overlay of X-ray images on cone-beam CT scan for image-guided radiation treatment
EP2285279B1 (en) Automatic patient positioning system
KR20190074977A (en) Medical apparatus, and method for controlling medical apparatus
WO2022030150A1 (en) Medical image processing device, treatment system, medical image processing method, and program
JPH09154961A (en) Radiation therapy program method
JP2008043567A (en) Positioning system
CN111918698B (en) Medical image processing apparatus, treatment system, and storage medium
JP2008022896A (en) Positioning system
US20220054862A1 (en) Medical image processing device, storage medium, medical device, and treatment system
JP2018042831A (en) Medical image processor, care system and medical image processing program
JP7444387B2 (en) Medical image processing devices, medical image processing programs, medical devices, and treatment systems
JP6918443B2 (en) Medical information processing device
US20240369917A1 (en) Medical image processing device, treatment system, medical image processing method, and storage medium
US20240362783A1 (en) Medical image processing device, treatment system, medical image processing method, and storage medium
US20240362782A1 (en) Medical image processing device, treatment system, medical image processing method, and storage medium
WO2022181663A1 (en) Radiation therapy device, medical image processing device, radiation therapy method, and program
CN119212626A (en) Medical image processing device, treatment system, medical image processing method, program and storage medium
KR20250034994A (en) Medical image processing device, treatment system, medical image processing method, program, and storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140410

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140410

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150203

R151 Written notification of patent or utility model registration

Ref document number: 5693388

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees