JP2017093842A - Ultrasonic volume data processor - Google Patents
Ultrasonic volume data processor Download PDFInfo
- Publication number
- JP2017093842A JP2017093842A JP2015229759A JP2015229759A JP2017093842A JP 2017093842 A JP2017093842 A JP 2017093842A JP 2015229759 A JP2015229759 A JP 2015229759A JP 2015229759 A JP2015229759 A JP 2015229759A JP 2017093842 A JP2017093842 A JP 2017093842A
- Authority
- JP
- Japan
- Prior art keywords
- line segment
- image
- measurement path
- marker
- cross
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000005259 measurement Methods 0.000 claims abstract description 158
- 239000003550 marker Substances 0.000 claims abstract description 112
- 239000002344 surface layer Substances 0.000 claims abstract description 33
- 238000012545 processing Methods 0.000 claims description 38
- 238000004364 calculation method Methods 0.000 claims description 32
- 238000012937 correction Methods 0.000 claims description 26
- 230000005540 biological transmission Effects 0.000 claims description 19
- 238000003672 processing method Methods 0.000 claims description 4
- 238000000034 method Methods 0.000 description 26
- 230000006870 function Effects 0.000 description 19
- 238000009877 rendering Methods 0.000 description 19
- 238000006243 chemical reaction Methods 0.000 description 6
- 239000000523 sample Substances 0.000 description 5
- 238000010276 construction Methods 0.000 description 4
- 230000010365 information processing Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 239000010410 layer Substances 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000003187 abdominal effect Effects 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000001605 fetal effect Effects 0.000 description 1
- 210000003754 fetus Anatomy 0.000 description 1
- 210000002216 heart Anatomy 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 210000004185 liver Anatomy 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Landscapes
- Ultra Sonic Daignosis Equipment (AREA)
Abstract
【課題】三次元表現された注目組織像上に線分が設定された場合に、その線分によって定義される計測経路を容易に認識できるようにする。また、計測経路を容易に補正できるようにする。
【解決手段】主画像200の他、参照画像202が表示される。主画像200は、三次元組織画像92とユーザー指定された線分を示す第1の線分マーカー94とを含む。参照画像202は、線分に対応する断面を示す断面画像100と、第2の線分マーカー108と、計測経路マーカー114と、を有する。計測経路マーカー114は、注目組織の表層に沿って設定される計測経路を示すものである。線分94を曲線として指定すると、曲面に相当する断面画像100が表示される。主画像200上における線分の形態を補正することにより、又は、参照画像202上において計測経路マーカー114の形態を補正することにより、計測経路の形態を自在に変更し得る。
【選択図】図7When a line segment is set on a target tissue image expressed three-dimensionally, a measurement path defined by the line segment can be easily recognized. In addition, the measurement path can be easily corrected.
In addition to a main image, a reference image is displayed. The main image 200 includes a three-dimensional tissue image 92 and a first line segment marker 94 indicating a user-specified line segment. The reference image 202 includes a cross-sectional image 100 showing a cross-section corresponding to a line segment, a second line segment marker 108, and a measurement path marker 114. The measurement path marker 114 indicates a measurement path set along the surface layer of the target tissue. When the line segment 94 is designated as a curve, a cross-sectional image 100 corresponding to a curved surface is displayed. The form of the measurement path can be freely changed by correcting the form of the line segment on the main image 200 or by correcting the form of the measurement path marker 114 on the reference image 202.
[Selection] Figure 7
Description
本発明は超音波ボリュームデータ処理装置に関し、特に、超音波が送受波される三次元空間内に存在する注目組織に対して計測経路を設定する技術に関する。 The present invention relates to an ultrasonic volume data processing apparatus, and more particularly to a technique for setting a measurement path for a target tissue existing in a three-dimensional space in which ultrasonic waves are transmitted and received.
超音波ボリュームデータ処理装置は、三次元超音波画像としての三次元組織画像を形成する装置である。その装置は、超音波診断装置として構成され、あるいは、情報処理装置として構成される。三次元組織画像は、生体内の三次元空間内に存在する注目組織(対象組織)を立体的に表現した画像である。 The ultrasonic volume data processing device is a device that forms a three-dimensional tissue image as a three-dimensional ultrasonic image. The apparatus is configured as an ultrasonic diagnostic apparatus or an information processing apparatus. The three-dimensional tissue image is an image that three-dimensionally represents a target tissue (target tissue) existing in a three-dimensional space in a living body.
三次元組織画像の生成方法について説明する。生体内の三次元空間に対して超音波を送受波することによりボリュームデータ(超音波ボリュームデータ)が取得される。そのボリュームデータに対して複数の視線(レイ)が設定され、個々の視線ごとに画素値演算(レンダリング処理)が実行される。これによって生成された各視線に対応する各画素値が投影面上にマッピングされる。その結果、三次元組織画像が構成される。三次元組織画像が三次元超音波画像あるいは単に三次元画像と称されることもある。 A method for generating a three-dimensional tissue image will be described. Volume data (ultrasonic volume data) is acquired by transmitting and receiving ultrasonic waves to and from a three-dimensional space in the living body. A plurality of lines of sight (rays) are set for the volume data, and pixel value calculation (rendering processing) is executed for each line of sight. Each pixel value corresponding to each line of sight thus generated is mapped on the projection plane. As a result, a three-dimensional tissue image is constructed. A three-dimensional tissue image may be referred to as a three-dimensional ultrasound image or simply a three-dimensional image.
三次元組織画像形成方法としてボリュームレンダリング法、サーフェイスレンダリング法、等が知られている。超音波ボリュームデータ処理装置において、互いに直交する3つの断面(トリプレーン)に対応する3つの断面画像や、任意断面に対応する断面画像が形成されることもある。 As a three-dimensional tissue image forming method, a volume rendering method, a surface rendering method, and the like are known. In the ultrasonic volume data processing apparatus, three cross-sectional images corresponding to three cross-sections (triplanes) orthogonal to each other and cross-sectional images corresponding to arbitrary cross-sections may be formed.
特許文献1には、三次元画像上で指定された点に基づいて、その点に対応する組織表面位置を決定することが記載されている。同文献には、点に代えて線を指定すること、及び、その線に基づいて組織表面上における経路長つまり距離を演算することも記載されている。しかし、同文献に記載された構成では、ユーザーにおいて、距離計測対象となった経路についての具体的な形態を認識することができない。特許文献2には、ボリュームレンダリング法の実行過程において、視線単位での画素値演算と並行して、視線単位で投影面からの距離(つまり対象組織の表層(又は表面)の深さ)を演算することが記載されている。 Patent Document 1 describes that, based on a point designated on a three-dimensional image, a tissue surface position corresponding to the point is determined. The document also describes that a line is specified instead of a point, and that a path length, that is, a distance on the tissue surface is calculated based on the line. However, with the configuration described in this document, the user cannot recognize a specific form of the route that is the distance measurement target. Patent Document 2 calculates the distance from the projection plane (that is, the depth of the surface layer (or surface) of the target tissue) in units of line of sight in parallel with the pixel value calculation in units of line of sight in the execution process of the volume rendering method. It is described to do.
三次元組織画像上において線分を指定し、注目組織表層(表面)に沿った経路として線分に対応する計測経路を特定し、その計測経路の長さ(経路長)を演算する場合、三次元組織画像上に線分をマーカーとして重畳表示するだけでは、実際の計測経路の三次元形態(特に視線方向である奥行き方向における形態)認識することは困難である。そのマーカーは、計測経路の投影像に過ぎないからであり、つまり、それは奥行き情報を反映したものではないからである。 When a line segment is specified on the 3D tissue image, the measurement path corresponding to the line segment is specified as a path along the target tissue surface (surface), and the length (path length) of the measurement path is calculated, It is difficult to recognize the three-dimensional form of the actual measurement path (particularly, the form in the depth direction which is the line-of-sight direction) only by superimposing and displaying the line segment as a marker on the original tissue image. This is because the marker is only a projected image of the measurement path, that is, it does not reflect depth information.
本発明の目的は、ボリュームデータ又は三次元組織画像に対して計測経路を設定して計測を行う場合において、その計測経路の具体的形態をユーザーが容易に認識できるようにすることにある。あるいは、本発明の目的は、注目組織表層の形態と計測経路の形態との関係を同時に認識できる画像を提供することにある。あるいは、本発明の目的は、計測経路の形態を正しくしかも容易に変更できるようにすることにある。 An object of the present invention is to enable a user to easily recognize a specific form of a measurement path when performing measurement by setting a measurement path for volume data or a three-dimensional tissue image. Alternatively, an object of the present invention is to provide an image that can simultaneously recognize the relationship between the form of the target tissue surface layer and the form of the measurement path. Alternatively, an object of the present invention is to make it possible to change the form of the measurement path correctly and easily.
本発明に係る超音波ボリュームデータ処理装置は、超音波の送受波により得られたボリュームデータに対して複数の視線を設定し、視線単位で画素値演算を実行することにより、視点から見た注目組織像としての三次元組織画像を形成する三次元組織画像形成手段と、前記三次元組織画像上に設定された線分に基づいて、注目組織に対して計測経路を設定する設定手段と、超音波の送受波により得られた断面データであって前記線分を通過する視線列に対応する断面を表す断面データに基づいて、断面画像を形成する断面画像形成手段と、前記三次元組織画像と前記線分を示す第1の線分マーカーとを含む主画像、及び、前記断面画像と前記計測経路を示す計測経路マーカーとを含む参照画像、を表示する表示手段と、を含むことを特徴とするものである。 The ultrasonic volume data processing device according to the present invention sets a plurality of lines of sight with respect to volume data obtained by transmission and reception of ultrasonic waves, and executes pixel value calculation in units of lines of sight. A three-dimensional tissue image forming means for forming a three-dimensional tissue image as a tissue image; a setting means for setting a measurement path for a target tissue based on a line segment set on the three-dimensional tissue image; Cross-sectional image forming means for forming a cross-sectional image based on cross-sectional data obtained by transmission and reception of sound waves and representing cross-section corresponding to a line of sight passing through the line segment; and the three-dimensional tissue image; Display means for displaying a main image including the first line segment marker indicating the line segment, and a reference image including the cross-sectional image and the measurement path marker indicating the measurement path; You It is intended.
上記構成において、主画像には三次元画像と第1の線分マーカーとが含まれる。第1の線分マーカーによって、三次元的に表現された注目組織像との関係で、線分の位置や長さを把握できる。但し、一般に、第1の線分マーカーを観察するだけでは、線分に基づいて自動的に設定される計測経路が視線方向(奥行き方向)にどのような形態を有しているのかはわからない。そこで、上記構成では、主画像と共に参照画像が同時表示される。参照画像には、注目組織の断面画像と計測経路を示す計測経路マーカーとが含まれる。断面画像が表す断面は、三次元組織画像上に設定された線分を奥行き方向に展開することにより観念される面に相当し、あるいは、線分を通過する視線列に対応する面である。つまり、断面画像は、投影面に対して交差(通常、直交)する関係にある。そのような断面画像を通じて、注目組織の断面内の構造を容易に把握できる。断面画像に重畳表示される計測経路マーカーを観察することにより、注目組織の断面構造との関係で、実際の計測経路の形態を認識することが可能である。参照画像を通じて、例えば、計測経路が注目組織からはみ出していないことや、計測経路が注目組織の深部まで達しておらずそれが表層内に正しく設定されていること、を確認できる。 In the above configuration, the main image includes the three-dimensional image and the first line segment marker. With the first line segment marker, the position and length of the line segment can be grasped in relation to the target tissue image expressed three-dimensionally. However, in general, only by observing the first line segment marker, it is not known what form the measurement path automatically set based on the line segment has in the line-of-sight direction (depth direction). Therefore, in the above configuration, the reference image is displayed together with the main image. The reference image includes a cross-sectional image of the tissue of interest and a measurement path marker indicating the measurement path. The cross section represented by the cross-sectional image corresponds to a surface that is conceived by developing a line segment set on the three-dimensional tissue image in the depth direction, or a surface corresponding to a line of sight that passes through the line segment. That is, the cross-sectional image has a relationship of intersecting (usually orthogonal) with the projection plane. Through such a cross-sectional image, the structure in the cross-section of the tissue of interest can be easily grasped. By observing the measurement path marker superimposed and displayed on the cross-sectional image, it is possible to recognize the form of the actual measurement path in relation to the cross-sectional structure of the tissue of interest. Through the reference image, for example, it can be confirmed that the measurement path does not protrude from the target tissue and that the measurement path does not reach the deep part of the target tissue and is set correctly in the surface layer.
断面データは、例えば、ボリュームデータから切り出されるデータ、ボリュームデータ構成前の段階で線分に相当する複数のビームデータを取り出すことによって構成されるデータ、あるいは、ボリュームデータ取得用の送受波とは別の送受波によって取得されるデータである。望ましくは、前記設定手段は、前記注目組織の表層に沿って前記計測経路を設定する。表層(表面)以外の層や面に対して計測経路が設定されてもよい。 Cross-sectional data is different from, for example, data cut out from volume data, data configured by extracting a plurality of beam data corresponding to line segments at the stage before volume data configuration, or transmission / reception waves for acquiring volume data. It is data acquired by the transmission and reception of. Preferably, the setting means sets the measurement path along the surface layer of the tissue of interest. Measurement paths may be set for layers and surfaces other than the surface layer (surface).
望ましくは、前記ボリュームデータに対する視線単位での画素値演算に際して視線単位で前記注目組織の表層深さを特定し、これによって前記複数の視線に対応する複数の表層深さが登録されたテーブルを生成する生成手段を含み、前記設定手段は前記テーブルにおいて前記視線列に対応する複数の表層深さからなる列を特定することにより前記計測経路を設定する。 Preferably, when calculating a pixel value in line-of-sight units for the volume data, a surface layer depth of the target tissue is specified in line-of-sight units, thereby generating a table in which a plurality of surface layer depths corresponding to the plurality of line-of-sight are registered The setting means sets the measurement path by specifying a row composed of a plurality of surface layer depths corresponding to the line-of-sight row in the table.
この構成によれば、視線単位での画素値演算と並行して、又は、その前後において、視線単位で注目組織の表層深さが演算され、その演算結果からテーブルが構成される。線分が指定された時点で、テーブル内容を参照することにより、それに対応する実際の計測経路を特定する座標情報を直ちに特定することが可能である。注目組織の表層(表面)深さは、投影面又はレンダリング開始面からの距離であってもよい。あるいは、視点からの距離であってもよい。あるいは、それ以外であってもよい。 According to this configuration, the surface layer depth of the tissue of interest is calculated for each line of sight in parallel with or before and after the pixel value calculation for each line of sight, and a table is configured from the calculation results. By referring to the contents of the table when the line segment is designated, it is possible to immediately specify the coordinate information that specifies the actual measurement path corresponding to the table. The surface layer (surface) depth of the target tissue may be a distance from the projection plane or the rendering start plane. Or the distance from a viewpoint may be sufficient. Or it may be other than that.
望ましくは、前記参照画像は、前記計測経路マーカーからその視点側に隔てられつつ表示された直線状のマーカーであって前記線分を示す第2の線分マーカーを含む。第2の線分マーカーによれば、線分を注目組織の表層に投影したものが計測経路マーカーであることを直感的に認識することが可能である。 Preferably, the reference image includes a second line segment marker that is a linear marker that is displayed while being separated from the measurement path marker toward the viewpoint, and that indicates the line segment. According to the second line segment marker, it is possible to intuitively recognize that the line segment projected onto the surface layer of the target tissue is the measurement path marker.
望ましくは、前記参照画像は、前記第2の線分マーカーの一方端点と前記計測経路マーカーの一方端点とを通る第1の視線マーカーと、前記第2の線分マーカーの他方端点と前記計測経路マーカーの他方端点とを通る第2の視線マーカーと、を含む。この構成によれば、線分の両端と計測経路マーカーの両端との関係を直感的に認識できる。特に、視線方向を自然に観念することが可能となる。計測経路マーカーは、計測経路が注目組織表層に沿って設定される場合にトレースラインに相当する。 Preferably, the reference image includes a first line-of-sight marker passing through one end point of the second line segment marker and one end point of the measurement path marker, the other end point of the second line segment marker, and the measurement path. A second line-of-sight marker passing through the other end point of the marker. According to this configuration, the relationship between both ends of the line segment and both ends of the measurement path marker can be intuitively recognized. In particular, it is possible to naturally consider the line-of-sight direction. The measurement path marker corresponds to a trace line when the measurement path is set along the target tissue surface layer.
望ましくは、前記参照画像上において前記計測経路に対する補正操作があった場合に、前記計測経路を補正する補正手段を含む。この構成によれば、断面上の組織構造を実際に観察しながら、計測経路の形態を補正することが可能となる。すなわち、線分に対応する断面上において計測経路の形態を直接的に変更し得る。必要であれば、三次元組織画像上において線分の位置、長さ、形態等を補正し、その上で、更新された断面画像上において、計測経路の形態等を補正してもよい。 Preferably, the image processing apparatus includes a correction unit that corrects the measurement path when a correction operation is performed on the measurement path on the reference image. According to this configuration, the form of the measurement path can be corrected while actually observing the tissue structure on the cross section. That is, the form of the measurement path can be directly changed on the cross section corresponding to the line segment. If necessary, the position, length, form, and the like of the line segment may be corrected on the three-dimensional tissue image, and the form of the measurement path may be corrected on the updated cross-sectional image.
望ましくは、前記線分は直線状であり、前記断面は平面であり、前記計測経路は二次元的に変化する経路である。あるいは、前記線分は曲線状の線分であり、前記断面は曲面であり、前記計測経路は三次元的に変化する経路である。例えば、環状の線分を指定した場合、展開図のような断面画像を表示し得る。そのような断層画像は、胎児の腹囲長の計測等において有用である。 Preferably, the line segment is a straight line, the cross section is a plane, and the measurement path is a path that changes two-dimensionally. Alternatively, the line segment is a curved line segment, the cross section is a curved surface, and the measurement path is a path that changes three-dimensionally. For example, when an annular line segment is designated, a cross-sectional image such as a development view can be displayed. Such a tomographic image is useful for measuring the fetal abdominal circumference.
本発明に係るプログラムは、超音波ボリュームデータ処理装置が超音波ボリュームデータ処理方法を実行するためのプログラムであって、前記超音波ボリュームデータ処理方法が、超音波の送受波により得られたボリュームデータに対して複数の視線を設定し、視線単位で画素値演算を実行することにより、視点から見た注目組織像としての三次元組織画像を形成する工程と、前記三次元組織画像上において線分を特定する工程と、前記線分に基づいて注目組織に対して計測経路を設定する工程と、超音波の送受波により得られた断面データであって前記線分を通過する視線列に対応する断面を表す断面データに基づいて、断面画像を形成する工程と、前記三次元組織画像と前記線分を示す第1の線分マーカーとを含む主画像を生成する工程と、前記断面画像と前記計測経路を示す計測経路マーカーとを含む参照画像を生成する工程と、前記主画像と前記参照画像とを同時表示する工程と、を含む。上記プログラムが可搬型の記録媒体を経由して超音波ボリュームデータ処理装置にインストールされてもよいし、当該プログラムがネットワークを経由して当該装置へインストールされてもよい。 A program according to the present invention is a program for an ultrasonic volume data processing apparatus to execute an ultrasonic volume data processing method, wherein the ultrasonic volume data processing method is volume data obtained by transmitting and receiving ultrasonic waves. Forming a three-dimensional tissue image as a target tissue image viewed from the viewpoint by setting a plurality of lines of sight with respect to each other and executing pixel value calculation for each line of sight, and a line segment on the three-dimensional tissue image Corresponding to a line of sight line passing through the line segment, the cross-sectional data obtained by transmitting and receiving ultrasonic waves, and the step of setting the measurement path for the tissue of interest based on the line segment A step of forming a cross-sectional image based on cross-sectional data representing a cross-section, and a step of generating a main image including the three-dimensional tissue image and a first line segment marker indicating the line segment , And producing a reference image including a measurement path markers indicating the measurement path and the cross-sectional image, a step of simultaneously displaying the the reference image and the main image. The program may be installed in the ultrasonic volume data processing apparatus via a portable recording medium, or the program may be installed in the apparatus via a network.
本発明によれば、ボリュームデータ又は三次元組織画像に対して計測経路を設定して計測を行う場合において、その計測経路の具体的形態をユーザーが認識できる。あるいは、注目組織表層の形態と計測経路の形態との関係を容易に認識できる画像を提供できる。あるいは、計測経路の形態を容易に変更できる。 According to the present invention, when a measurement path is set for volume data or a three-dimensional tissue image and measurement is performed, the user can recognize a specific form of the measurement path. Or the image which can recognize easily the relationship between the form of an attention tissue surface layer and the form of a measurement path | route can be provided. Alternatively, the form of the measurement path can be easily changed.
以下、本発明の好適な実施形態を図面に基づいて説明する。 DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described with reference to the drawings.
図1には、本発明に係る超音波ボリュームデータ処理装置の好適な実施形態がブロック図として示されている。この超音波ボリュームデータ処理装置は図示の例において超音波診断装置である。超音波診断装置は、医療機関において設置され、生体への超音波の送受波により、超音波画像を形成する装置である。 FIG. 1 is a block diagram showing a preferred embodiment of an ultrasonic volume data processing apparatus according to the present invention. This ultrasonic volume data processing apparatus is an ultrasonic diagnostic apparatus in the illustrated example. An ultrasonic diagnostic apparatus is an apparatus that is installed in a medical institution and forms an ultrasonic image by transmitting and receiving ultrasonic waves to and from a living body.
プローブ10は、本実施形態において、2Dアレイ振動子を備えた送受波器である。プローブ10によって三次元送受波空間が形成される。その空間内には注目組織が含まれる。注目組織は、被検体12内に存在し、それは、例えば、心臓、肝臓、胎児等である。三次元送受波空間はボリュームデータ取得空間と言い得る。 In this embodiment, the probe 10 is a transducer that includes a 2D array transducer. A three-dimensional transmission / reception space is formed by the probe 10. The space contains the organization of interest. The tissue of interest exists in the subject 12, and is, for example, the heart, liver, fetus or the like. The three-dimensional transmission / reception space can be called a volume data acquisition space.
プローブ10の送受波面が被検体12の表面に当接され、その状態で超音波が送受波される。2Dアレイ振動子は、縦横に並んだ複数の振動素子により構成される。2Dアレイ振動子によって超音波ビームが形成され、それは電子的に二次元走査される。これによりボリュームデータが取得される。電子走査方式として電子セクタ走査方式、電子リニア走査方式、等が知られている。 The transmission / reception surface of the probe 10 is brought into contact with the surface of the subject 12, and ultrasonic waves are transmitted / received in this state. The 2D array transducer is composed of a plurality of vibration elements arranged vertically and horizontally. An ultrasonic beam is formed by the 2D array transducer, which is electronically two-dimensionally scanned. Thereby, the volume data is acquired. As an electronic scanning method, an electronic sector scanning method, an electronic linear scanning method, and the like are known.
なお、1Dアレイ振動子を機械走査するタイプのプローブを利用してボリュームデータを取得するようにしてもよい。2Dアレイ振動子としてcMUT型の電気音響変換器を用いてもよい。体腔内に挿入されるプローブが利用されてもよい。 The volume data may be acquired using a probe of a type that mechanically scans the 1D array transducer. A cMUT type electroacoustic transducer may be used as the 2D array transducer. A probe inserted into a body cavity may be used.
送信部14は送信ビームフォーマーとして機能する電子回路である。送信部14は、送信時において、複数の送信信号をアレイ振動子へ並列的に供給する。これにより送信ビームが形成される。受信時において、生体内からの反射波がアレイ振動子において受信されると、アレイ振動子から複数の受信信号が受信部16へ並列的に出力される。受信部16は受信ビームフォーマーとして機能する電子回路である。具体的には、複数の受信信号が整相加算処理され、これによりビームデータが構成される。受信部16が有する各受信チャンネル回路は、アンプ、A/D変換器、遅延器を備える。遅延処理後の複数の受信信号が加算器に入力される。整相加算処理においては、受信ダイナミックフォーカス技術が適用される。受信部16において、パラレル受信処理が実行されてもよい。送受信制御部18は、主制御部42の制御の下、超音波の送信及び受信を制御する。 The transmission unit 14 is an electronic circuit that functions as a transmission beam former. The transmitter 14 supplies a plurality of transmission signals to the array transducer in parallel during transmission. As a result, a transmission beam is formed. At the time of reception, when a reflected wave from the living body is received by the array transducer, a plurality of reception signals are output from the array transducer to the receiving unit 16 in parallel. The receiving unit 16 is an electronic circuit that functions as a receiving beam former. Specifically, a plurality of received signals are subjected to phasing addition processing, thereby forming beam data. Each reception channel circuit included in the reception unit 16 includes an amplifier, an A / D converter, and a delay device. A plurality of received signals after delay processing are input to the adder. In the phasing addition process, a reception dynamic focus technique is applied. The receiving unit 16 may execute parallel reception processing. The transmission / reception control unit 18 controls transmission and reception of ultrasonic waves under the control of the main control unit 42.
ビームデータ処理部20は、個々のビームデータに対して必要な処理を施すものである。それは、例えば、検波回路、対数圧縮回路、相関回路等を含む。個々のビームデータは深さ方向に並ぶ複数のエコーデータからなる。ビームデータ処理部20から出力された個々のビームデータが三次元座標変換部22及び断面画像作成部26へ送られている。 The beam data processing unit 20 performs necessary processing on individual beam data. It includes, for example, a detection circuit, a logarithmic compression circuit, a correlation circuit, and the like. Each beam data consists of a plurality of echo data arranged in the depth direction. Individual beam data output from the beam data processing unit 20 is sent to the three-dimensional coordinate conversion unit 22 and the cross-sectional image creation unit 26.
三次元座標変換部22は、各エコーデータに対して三次元の送受波座標から三次元の直交座標への座標変換を実行し、すなわち、個々のエコーデータを三次元記憶空間内にマッピングする。実際には、座標変換後の各エコーデータ(あるいは補間データ)が3Dメモリ24に格納される。このような書き込み時の座標変換に代えて、読み出し時の座標変換が実行されてもよい。走査面に相当するビームデータ列をスキャンコンバータによって走査面データに変換し、その後、複数の走査面データを座標変換してボリュームデータを構成するようにしてもよい。いずれにしても、3Dメモリ24内には、生体内の三次元送受波空間から取得されたボリュームデータが格納される。 The three-dimensional coordinate conversion unit 22 performs coordinate conversion from three-dimensional transmission / reception coordinates to three-dimensional orthogonal coordinates for each echo data, that is, maps individual echo data in a three-dimensional storage space. Actually, each echo data (or interpolation data) after coordinate conversion is stored in the 3D memory 24. Instead of such coordinate conversion at the time of writing, coordinate conversion at the time of reading may be executed. The beam data sequence corresponding to the scanning plane may be converted into scanning plane data by a scan converter, and then the plurality of scanning plane data may be coordinate-converted to constitute volume data. In any case, the 3D memory 24 stores volume data acquired from the three-dimensional transmission / reception space in the living body.
断面画像作成部26は、ソフトウエアモジュール又は電子回路により構成され、それは幾つかの機能を有する。断面画像作成部26は、ボリュームデータに対して設定される互いに直交関係にある3つの断面(トリプレーン)に対応した3つの断面画像を形成する機能を有する。また、断面画像作成部26は、ボリュームデータに対して設定された任意断面に対応する断面画像を作成する機能を有する。更に、後述する三次元組織画像上において計測経路を規定する線分が指定された場合に、その線分で定義される断面を表す断面画像を形成する機能を有する。断面画像の形成に際しては、ビームデータ処理部から出力された所定のビームデータ列が利用され、あるいは、ボリュームデータから抽出された断面データが利用される。そのような断面データに基づいて断面画像が形成される。高分解能をもったつまり高精細の断面画像を形成するために、断面データに対して又は生成後の断面画像に対して、補間処理あるいは超解像処理を適用してもよい。作成された断面画像のデータが表示処理部34へ送られる。 The cross-sectional image creation unit 26 is configured by a software module or an electronic circuit, which has several functions. The cross-sectional image creation unit 26 has a function of forming three cross-sectional images corresponding to three cross-sections (triplanes) that are orthogonal to each other set for the volume data. The cross-sectional image creation unit 26 has a function of creating a cross-sectional image corresponding to an arbitrary cross-section set for the volume data. Furthermore, when a line segment that defines a measurement path is specified on a three-dimensional tissue image to be described later, it has a function of forming a cross-sectional image representing a cross section defined by the line segment. In forming a cross-sectional image, a predetermined beam data string output from the beam data processing unit is used, or cross-sectional data extracted from volume data is used. A cross-sectional image is formed based on such cross-sectional data. In order to form a high-resolution cross-sectional image with high resolution, interpolation processing or super-resolution processing may be applied to the cross-sectional data or the generated cross-sectional image. The created cross-sectional image data is sent to the display processing unit 34.
ボリュームレンダリング部28は、ボリュームレンダリング法に基づいて、ボリュームデータから三次元組織画像を形成するソフトウエアモジュールあるいは電子回路である。具体的には、後に図2を用いて説明するように、ボリュームデータに対して、視点から伸びる複数の視線(レイ)が設定され、視線ごとに画素値演算(レンダリング処理)が実行される。画素値演算では、ボリュームデータに対して設定されたレンダリング開始面及びレンダリング終了面の間(レンダリング範囲)において、個々のボクセルごとに不透明度(オパシティ)を利用した所定の演算が実行される。視線ごとの演算結果である画素値が投影面上にマッピングされる。開始面が投影面であってもよい。不透明度(オパシティ)関数30は、ボクセル値から不透明度を決定するための関数であり、その具体例については後に図3を用いて説明する。 The volume rendering unit 28 is a software module or electronic circuit that forms a three-dimensional tissue image from volume data based on the volume rendering method. Specifically, as will be described later with reference to FIG. 2, a plurality of lines of sight (rays) extending from the viewpoint are set for the volume data, and pixel value calculation (rendering processing) is performed for each line of sight. In the pixel value calculation, a predetermined calculation using opacity is performed for each voxel between the rendering start surface and the rendering end surface (rendering range) set for the volume data. A pixel value that is a calculation result for each line of sight is mapped on the projection plane. The start surface may be a projection surface. The opacity function 30 is a function for determining the opacity from the voxel value, and a specific example thereof will be described later with reference to FIG.
本実施形態では、ボリュームレンダリング部28が深さ演算機能を有している。それが図1において深さ演算部32として示されている。深さ演算部32は、視線単位で注目組織の表層(表面)深さを演算する。その深さは、本実施形態では、投影面(レンダリング開始面)から注目組織の表面までの距離である。視線ごとに、画素値演算と並行して距離演算が実行される。複数の視線に対応する複数の深さ(距離)により距離テーブルが構成される。そのような距離テーブルが構成される記憶領域をZバッファと称することもある。距離テーブルは、後に図6等に示すように、三次元組織画像上において線分が指定された場合に、その線分に対応する計測経路を特定する場合に利用される。具体的には、距離テーブルから、線分を構成する各位置に対応する各距離を読み出すことにより、線分上の各位置に対応する深さが特定される。これによって三次元送受波空間内の三次元の経路として計測経路が特定される。画素値演算のための計算式及び距離演算のための計算式については後ほど説明する。三次元組織画像のデータが表示処理部34へ送られる。距離テーブルは図示の例では主制御部42へ送られている。 In the present embodiment, the volume rendering unit 28 has a depth calculation function. This is shown as the depth calculator 32 in FIG. The depth calculator 32 calculates the surface layer (surface) depth of the tissue of interest in line-of-sight units. In the present embodiment, the depth is the distance from the projection surface (rendering start surface) to the surface of the tissue of interest. For each line of sight, the distance calculation is executed in parallel with the pixel value calculation. A distance table is constituted by a plurality of depths (distances) corresponding to a plurality of lines of sight. A storage area in which such a distance table is configured may be referred to as a Z buffer. The distance table is used when a measurement segment corresponding to a line segment is specified when a line segment is designated on the three-dimensional tissue image, as shown later in FIG. Specifically, the depth corresponding to each position on the line segment is specified by reading each distance corresponding to each position constituting the line segment from the distance table. As a result, a measurement path is specified as a three-dimensional path in the three-dimensional transmission / reception space. A calculation formula for pixel value calculation and a calculation formula for distance calculation will be described later. The data of the three-dimensional tissue image is sent to the display processing unit 34. The distance table is sent to the main control unit 42 in the illustrated example.
表示処理部34は、画像合成機能、色付け機能、等を有するソフトウエアモジュール又は電子回路である。表示処理部34が有する主画像構成機能が図1において主画像構成部36として示されている。また、表示処理部34が有する参照画像構成機能が図1において参照画像構成部38として示されている。主画像構成部36は、三次元組織画像とユーザー指定された線分を表す線分マーカー(第1の線分マーカー)とを有する主画像を生成する。線分マーカーは表示要素としてのグラフィック要素であり、それは三次元組織画像上に重畳表示される。参照画像構成部38は、線分に対応する断面を表す断面画像と、そこに重畳表示される計測経路マーカーと、を含む参照画像を生成する。計測経路マーカーは、断面上における計測経路の形態を曲線として示したものであり、それはトレースラインである。計測経路マーカーは、線分マーカーと同様に、表示要素又はグラフィック要素である。 The display processing unit 34 is a software module or electronic circuit having an image composition function, a coloring function, and the like. The main image forming function of the display processing unit 34 is shown as a main image forming unit 36 in FIG. Further, the reference image construction function of the display processing unit 34 is shown as a reference image construction unit 38 in FIG. The main image construction unit 36 generates a main image having a three-dimensional tissue image and a line segment marker (first line segment marker) representing a user-specified line segment. The line segment marker is a graphic element as a display element, and is displayed superimposed on the three-dimensional tissue image. The reference image construction unit 38 generates a reference image including a cross-sectional image representing a cross-section corresponding to the line segment and a measurement path marker displayed superimposed on the cross-sectional image. The measurement path marker indicates the form of the measurement path on the cross section as a curve, and is a trace line. The measurement path marker is a display element or a graphic element, like the line segment marker.
表示部40は例えば液晶表示器であり、その画面上には主画像と参照画像とが並んで同時に表示される。本実施形態においては、主画像の上に線分を指定すると、それが主画像上において線分マーカー(第1の線分マーカー)として表現され、同時に、線分に対応する断面を表す断面画像が形成及び表示される。断面画像上には計測経路を示す計測経路マーカーが重畳表示される。計測経路マーカーは、注目組織の表層又はあるいは表面に沿ったトレースラインである。 The display unit 40 is, for example, a liquid crystal display, and the main image and the reference image are displayed side by side on the screen. In the present embodiment, when a line segment is designated on the main image, it is represented as a line segment marker (first line segment marker) on the main image, and at the same time, a cross-sectional image representing a cross section corresponding to the line segment. Is formed and displayed. A measurement path marker indicating the measurement path is superimposed and displayed on the cross-sectional image. The measurement path marker is a trace line along the surface layer or the surface of the tissue of interest.
三次元組織画像に重畳表示される線分マーカーの参照によれば、注目組織との関係で、線分の位置及び長さを把握できるが、計測経路についての奥行き方向の形態を把握することまではできない。本実施形態では、断面画像が表示され、そこに計測経路を表す計測経路マーカーが表示されるので、注目組織の断面上において、計測経路の屈曲形態を正確に認識することが可能である。つまり、注目組織の表層形態に対して正しく計測経路が設定されていることを確認できる。本実施形態では、参照画像内には、後に図7等に示すように、計測経路マーカーの他に、線分マーカー(第2の線分マーカー)及び2つの視線マーカーが含まれる。本実施形態では、後に図10等に示すように、必要に応じて、いったん設定された計測経路の形態を事後的に補正することが可能である。 According to the reference of the line segment marker superimposed on the 3D tissue image, the position and length of the line segment can be grasped in relation to the target tissue, but the depth direction of the measurement path can be grasped. I can't. In the present embodiment, since a cross-sectional image is displayed and a measurement path marker representing the measurement path is displayed there, it is possible to accurately recognize the bending form of the measurement path on the cross section of the tissue of interest. That is, it can be confirmed that the measurement path is correctly set for the surface layer form of the target tissue. In the present embodiment, the reference image includes a line segment marker (second line segment marker) and two line-of-sight markers in addition to the measurement path marker, as shown later in FIG. In the present embodiment, as shown later in FIG. 10 and the like, it is possible to correct the form of the measurement path once set up as needed.
主制御部42は、CPU及び動作プログラムによって構成される。主制御部42は、図1に示されている各構成の動作を制御するものである。それが有する幾つかの代表的な機能が複数のブロックとして表示されている。具体的には、主制御部42は、線分設定部44、計測経路設定部48、計測経路補正部50、及び、経路長演算部46を有している。線分設定部44は、三次元組織画像上におけるユーザーの座標指定に基づいて線分を設定するモジュールである。線分設定が完全に自動化されてもよい。例えば、画像解析結果に基づいて線分が自動的に設定されてもよい。計測経路設定部48は、指定された線分を注目組織表層へ投影することにより、具体的には、上述した距離テーブルから線分に対応する複数の距離(深さ)の列を読み出すことにより、注目組織表層に沿った計測経路を設定するモジュールである。計測経路は、二次元的に変化する経路、又は、三次元的に変化する経路である。前者の場合には直線状の線分が指定され、後者の場合には曲線状の線分が指定される。ポインティングデバイス等を利用してユーザーが計測経路に対して補正操作を行った場合、それを受けて計測経路補正部50が計測経路を補正する。そのような処理を実行するモジュールが計測経路補正部50である。計測経路の補正に際しては、断面画像上で操作を行えるから、注目組織の構造との関係で、正しい補正を速やかに行える。もっとも、計測経路の基礎をなす線分が三次元組織画像上で補正されてもよい。そのような補正は結果として計測経路の補正を生じさせるものである。経路長演算部46は、計測経路についての全長を演算するモジュールである。ユーザーが特定の臓器における特定の部位に計測経路を指定すると、その長さが自動的に計算される。他の計測部を設けてもよい。 The main control unit 42 includes a CPU and an operation program. The main control unit 42 controls the operation of each component shown in FIG. Some typical functions that it has are displayed as a plurality of blocks. Specifically, the main control unit 42 includes a line segment setting unit 44, a measurement path setting unit 48, a measurement path correction unit 50, and a path length calculation unit 46. The line segment setting unit 44 is a module that sets a line segment based on the user's coordinate designation on the three-dimensional tissue image. Line segment setting may be fully automated. For example, a line segment may be automatically set based on the image analysis result. The measurement path setting unit 48 projects the designated line segment onto the target tissue surface layer, and specifically reads out a plurality of distance (depth) columns corresponding to the line segment from the distance table described above. This is a module for setting a measurement path along the target tissue surface layer. The measurement path is a path that changes two-dimensionally or a path that changes three-dimensionally. In the former case, a straight line segment is designated, and in the latter case, a curved line segment is designated. When the user performs a correction operation on the measurement path using a pointing device or the like, the measurement path correction unit 50 corrects the measurement path in response to the correction operation. The module that executes such processing is the measurement path correction unit 50. Since the measurement path can be corrected on the cross-sectional image, correct correction can be promptly performed in relation to the structure of the tissue of interest. However, the line segment that forms the basis of the measurement path may be corrected on the three-dimensional tissue image. Such a correction results in a correction of the measurement path. The path length calculation unit 46 is a module that calculates the total length of the measurement path. When the user designates a measurement path for a specific part in a specific organ, the length is automatically calculated. Other measurement units may be provided.
コントロールパネル52は、トラックボール等の各種の入力器を備えた入力デバイスである。それを利用して線分が指定され、また線分や計測経路が補正される。 The control panel 52 is an input device including various input devices such as a trackball. Using this, a line segment is specified, and the line segment and measurement path are corrected.
上記ボリュームレンダリング部が実行する幾つかの計算式について具体例を説明する。上記のボリュームレンダリングにおいては例えば以下に示す計算が実行される。 Specific examples of some calculation formulas executed by the volume rendering unit will be described. In the above volume rendering, for example, the following calculation is executed.
Cout= Cout-1+(1−Aout-1)・Ai・Ci・Si …(1)
Aout= Aout-1+(1−Aout-1)・Ai …(2)
C out = C out-1 + (1-A out-1 ) ・ A i・ C i・ S i (1)
A out = A out-1 + (1-A out-1 ) · A i (2)
上記計算式において、Ciは、二次元投影面上のある点から三次元画像を見た場合(その点を通る視線を設定した場合)における、当該視線上のi番目に存在するボクセルの輝度値である。視線上にNボクセルが並んでいる場合、原則として、i=0〜Nについて上記計算が繰り返し実行される。その結果の値Coutが最終的な出力ピクセル値(画素値)となる。但し、途中で終了条件が満たされた場合、その時点で演算が終了し、画素値が確定する。Cout-1はi-1番目のボクセルについての結果値である。Aiは視線上i番目に存在するボクセルについて定義される不透明度(オパシティ)である。不透明度は0〜1.0の値をとる。Siは輝度Ciについて定義される傾きより算定される陰影付け用重み成分である。たとえば、光源と、ボクセルiを中心とした面の法線と、が一致する場合、もっとも強く反射し、Si に1.0が与えられ、光源と法線とが直交する場合にはSi に0.0が与えられる。Cout及びAoutは、ともに0を初期値とする。(2)式に示されるように、Aoutはボクセルを通過するたびに積算されて1.0に収束する。よって、式(1)に示されるようにi-1番目までのボクセルの不透明度の積算値Aout-1が1.0(又は所定値)になった場合、i番目のボクセル値Ci(及びそれ以降のボクセル値)は出力画像に反映されない。以上の説明は例示であり、ボリュームレンダリング法として、各種の手法が知られている。 In the above formula, C i is the luminance of the i th voxel existing on the line of sight when a 3D image is viewed from a point on the 2D projection plane (when a line of sight passing through the point is set). Value. When N voxels are arranged on the line of sight, in principle, the above calculation is repeated for i = 0 to N. The resulting value Cout becomes the final output pixel value (pixel value). However, if the end condition is satisfied in the middle, the calculation ends at that point and the pixel value is determined. C out-1 is the result value for the i-1 th voxel. A i is the opacity defined for the i-th voxel on the line of sight. The opacity takes a value from 0 to 1.0. S i is a shading weight component calculated from the slope defined for luminance C i . For example, if the light source and the normal of the surface centered on voxel i match, it will be reflected most strongly, giving 1.0 to Si and giving 0.0 to Si if the light source and normal are orthogonal It is done. C out and A out both have an initial value of 0. As shown in equation (2), A out is accumulated and converges to 1.0 every time it passes through the voxel. Therefore, as shown in the equation (1), when the integrated value Aout-1 of the opacity of the i-1th voxel becomes 1.0 (or a predetermined value), the i-th voxel value Ci (and subsequent values) Voxel value) is not reflected in the output image. The above description is an example, and various methods are known as a volume rendering method.
距離の計算方法として幾つかの方法があげられる。例えば特許文献2に記載された方法を用いる場合、個々の視線に対して、ボクセル単位で以下の(3)式が実行される。ここでi番目ボクセルの距離がDiで表現されている。Diはボクセル間ピッチとボクセル番号とから計算され得る。 There are several methods for calculating the distance. For example, when using the method described in Patent Document 2, the following expression (3) is executed for each line of sight in units of voxels. Here, the distance of the i-th voxel is expressed by Di. Di can be calculated from the pitch between voxels and the voxel number.
Dout= Dout-1+(1−Aout-1)・Ai・Di …(3) D out = D out-1 + (1-A out-1 ) · A i · D i (3)
上記(3)式では、距離Doutを(1)式と同様の方法で計算している。つまり、(1)式に基づくピクセル値Coutの算定過程で用いられる不透明度によって重み付けされた距離Doutが求められている。注目組織の表層又は表面(あるいは所定の層又は面)を特定できればよいのであるから、上記(1)式の演算が終了した時点(つまり不透明度飽和時点)でのボクセル深さをもって又はそれを基準として距離を定義してもよい。不透明度が閾値に到達した時点をもって距離を定義してもよい。対象組織によってはDoutが最大となった深さをもって距離を定義してもよい。更に、視線ごとにエッジ検出法を適用して注目組織表面を特定し、その深さをもって距離を定義してもよい。計測したい層、面等に応じて距離計算条件を定めればよい。 In the above equation (3), the distance Dout is calculated by the same method as in the equation (1). In other words, it has been required distance D out weighted by opacity used in the calculation process of the pixel value C out based on equation (1). Since it is only necessary to be able to specify the surface layer or surface (or a predetermined layer or surface) of the tissue of interest, the voxel depth at the time when the calculation of the above equation (1) is completed (that is, when the opacity is saturated) or based on it The distance may be defined as The distance may be defined as the time when the opacity reaches a threshold value. Depending on the target tissue, the distance may be defined with the depth at which D out is maximized. Furthermore, an edge detection method may be applied to each line of sight to identify the target tissue surface, and the distance may be defined based on the depth. What is necessary is just to define distance calculation conditions according to the layer, surface, etc. to measure.
図2には、三次元空間内に存在するボリュームデータ56が示されている。そこにおける座標系がXYZで特定されている。参考までに、トリプレーン表示を行う場合における3つの断面が符号58,60,62で示されている。それらは直交関係にある。投影面64は図示の例ではボリュームデータの視点側に示されている。ボリュームデータ56に対しては、例えば、視線方向66に並行に複数の視線が設定される。図2においては、その内の1つの視線68が示されている。視線68上には、複数のボクセルデータ(エコーデータ又は補間データ)が存在し、個々のボクセルデータを単位として出力光量演算が逐次的に実行される。その実行結果としての出力光量が画素値となる。その画素値は、視線が通過する(視線に対応する)画素70の値としてその位置にマッピングされる。投影面64上の座標がxyで特定されている。ボリュームデータ56内には注目組織データ塊72が存在している。視線単位での画素値演算に際しては、注目組織データ塊72の表層を位置(深さ)が特定される。実施形態では、距離は投影面から表層までの長さである。複数の視線を非並行に設定するようにしてもよい。 FIG. 2 shows volume data 56 existing in the three-dimensional space. The coordinate system there is specified by XYZ. For reference, reference numerals 58, 60, and 62 indicate three cross sections in the case of performing triplane display. They are in an orthogonal relationship. The projection surface 64 is shown on the viewpoint side of the volume data in the illustrated example. For the volume data 56, for example, a plurality of lines of sight are set in parallel with the line-of-sight direction 66. In FIG. 2, one of the lines of sight 68 is shown. A plurality of voxel data (echo data or interpolation data) exist on the line of sight 68, and the output light amount calculation is sequentially executed in units of individual voxel data. The output light amount as the execution result becomes the pixel value. The pixel value is mapped to the position as the value of the pixel 70 through which the line of sight passes (corresponding to the line of sight). The coordinates on the projection plane 64 are specified by xy. In the volume data 56, there is a focused tissue data chunk 72. When calculating the pixel value in the line-of-sight unit, the position (depth) of the surface layer of the target tissue data chunk 72 is specified. In the embodiment, the distance is the length from the projection plane to the surface layer. A plurality of lines of sight may be set non-parallel.
図3には不透明度(オパシティ)関数76が示されている。横軸はボクセル値を示しており、縦軸は不透明度を示している。関数76においては、ボクセル値78より下の区間において不透明度0(つまり完全透明)が設定されており、ボクセル値78からボクセル値80にかけて不透明度が線形かつ比較的急峻に増大しており、ボクセル値80よりも上の区間ではかなり高い不透明度が設定されている。このような関数76を用いると、注目組織の表面で、あるいは、組織内にあまり進入しない地点で、視線単位での画素値演算が終了する確率が高くなる。図3に示した不透明度関数76の形態は一例に過ぎない。 FIG. 3 shows an opacity function 76. The horizontal axis indicates the voxel value, and the vertical axis indicates the opacity. In the function 76, the opacity 0 (that is, completely transparent) is set in the section below the voxel value 78, and the opacity increases linearly and relatively steeply from the voxel value 78 to the voxel value 80. In the section above the value 80, a considerably high opacity is set. When such a function 76 is used, the probability that the pixel value calculation in the line-of-sight unit will end at the surface of the target tissue or at a point that does not enter the tissue so much increases. The form of the opacity function 76 shown in FIG. 3 is merely an example.
図4には、参考として、超音波診断装置における一般的な表示態様が示されている。それはトリプレーン表示を示すものである。表示器の画面82上には、第1の垂直断面画像84、第2の垂直断面画像86、及び、水平断面画像88が表示される。また、三次元組織画像90も併せて表示されている。 FIG. 4 shows a general display mode in the ultrasonic diagnostic apparatus as a reference. It shows a triplane display. On the screen 82 of the display device, a first vertical cross-sectional image 84, a second vertical cross-sectional image 86, and a horizontal cross-sectional image 88 are displayed. A three-dimensional tissue image 90 is also displayed.
次に、図5に示すフローチャートに基づいて、図1に示した装置の動作例について説明する。個々の工程の説明に際しては適宜、図6以降を参照することにする。 Next, an example of the operation of the apparatus shown in FIG. 1 will be described based on the flowchart shown in FIG. In the description of the individual steps, reference will be made to FIG.
図5において、S10では、リアルタイム動作状態又はフリーズ動作状態において表示された三次元組織画像上で、ユーザーにより、直線として又は曲線として、線分が指定される。この場合、計測したい部位に線分が指定される。例えば、図6の右側には、ボリュームレンダリング結果としての三次元組織画像92が示されており、その三次元組織画像92上において、線分マーカー(第1の線分マーカー)94の位置、長さ等を調整することにより、計測経路の基礎をなす線分を指定することができる。線分マーカー94は線分を表現するグラフィック要素である。それは、白黒の三次元組織画像上に例えばカラー表現される。図6に示される線分マーカー94は直線状の形態を有している。曲線として線分を指定することも可能である。その例については後に図11を用いて説明する。線分の指定に際しては、その両端96,98の座標をユーザー指定するようにしてもよい。線分のユーザー指定により、制御部が、線分についての座標情報を認識する。 In FIG. 5, in S10, a line segment is designated as a straight line or a curved line by the user on the three-dimensional tissue image displayed in the real-time operation state or the freeze operation state. In this case, a line segment is designated as a part to be measured. For example, on the right side of FIG. 6, a three-dimensional tissue image 92 is shown as a volume rendering result. On the three-dimensional tissue image 92, the position and length of a line segment marker (first line segment marker) 94 are displayed. By adjusting the length and the like, it is possible to specify a line segment that forms the basis of the measurement path. The line segment marker 94 is a graphic element that represents a line segment. For example, it is expressed in color on a black and white three-dimensional tissue image. The line segment marker 94 shown in FIG. 6 has a linear shape. It is also possible to specify a line segment as a curve. Such an example will be described later with reference to FIG. When the line segment is designated, the coordinates of both ends 96 and 98 may be designated by the user. The control unit recognizes coordinate information about the line segment according to the user designation of the line segment.
なお、図6の左側には線分に対応する断面を表す断面画像100が示されている。それは、線分を通過する視線列によって構成される面を表すものである。それは、線分を奥行き方向(視線方向)に展開することにより定義される面を表すものである。図6の左側には、視線列が概念的に示されている。その両端に相当する2つの視線が符号102、104で特定されている。各視線上には複数のボクセルデータが存在する。各ボクセルデータはエコーデータであり、または、ボクセル周囲の複数のエコーデータから生成される補間データである。断面画像は、二次元的に配列されたボクセルデータアレイに基づいて生成されるものである。 A cross-sectional image 100 representing a cross section corresponding to the line segment is shown on the left side of FIG. It represents a plane constituted by a line of sight passing through a line segment. It represents a surface defined by developing a line segment in the depth direction (line-of-sight direction). The line of sight is conceptually shown on the left side of FIG. Two lines of sight corresponding to both ends are identified by reference numerals 102 and 104. There are a plurality of voxel data on each line of sight. Each voxel data is echo data or interpolation data generated from a plurality of echo data around the voxel. The cross-sectional image is generated based on the voxel data array arranged two-dimensionally.
図5において、S12では、上記のように指定された線分に基づいて計測経路が特定される。本実施形態では、対象組織の表層深さを示す表層座標(深さ)テーブル(つまり距離テーブル)上から、線分に対応する複数の表層座標を読み出すことにより(S14参照)、計測経路が特定される。S16では、指定された線分に対応する参照画像が形成され、それが表示される。続いて、S18では、経路長が演算され、それが数値として表示される。以下にS16及びS18の内容について詳述する。 In FIG. 5, in S12, a measurement path is specified based on the line segment specified as described above. In this embodiment, a plurality of surface layer coordinates corresponding to a line segment are read from a surface layer coordinate (depth) table (that is, a distance table) indicating the surface layer depth of the target tissue (see S14), thereby specifying the measurement path. Is done. In S16, a reference image corresponding to the designated line segment is formed and displayed. Subsequently, in S18, the path length is calculated and displayed as a numerical value. The contents of S16 and S18 will be described in detail below.
図7には、第1の表示例が示されている。表示画面上には、主画像200と参照画像202とが同時に表示されている。主画像200は、三次元組織画像92と、線分マーカー(第1の線分マーカー)94と、を含む。符号96,98は線分マーカー94の両端を示している。参照画像202は、断面画像100と、それ対してオーバーレイ表示されたグラフィック画像と、からなる合成画像であり、グラフィック画像は、計測経路マーカー(トレースライン)114、線分マーカー(第2の線分マーカー)108、及び、視線マーカー122,124を有する。個々のグラフィック要素は、相互に区別可能な色相をもってカラー表現されている。断面画像100は、上述したように、線分に対応する断面を示すものであり、図示の例では、線分を含みその両端を延長した直線に対応する断面を表す画像(白黒Bモード断層画像に相当する画像)である。このため、線分に対応する計測経路マーカー114の両側を超えて広い範囲にわたる断面画像100が表示されている。 FIG. 7 shows a first display example. On the display screen, the main image 200 and the reference image 202 are simultaneously displayed. The main image 200 includes a three-dimensional tissue image 92 and a line segment marker (first line segment marker) 94. Reference numerals 96 and 98 indicate both ends of the line segment marker 94. The reference image 202 is a composite image including the cross-sectional image 100 and a graphic image displayed as an overlay on the cross-sectional image 100. The graphic image includes a measurement path marker (trace line) 114, a line segment marker (second line segment). Marker) 108 and line-of-sight markers 122 and 124. Individual graphic elements are expressed in color with mutually distinct hues. As described above, the cross-sectional image 100 shows a cross-section corresponding to a line segment, and in the illustrated example, an image (monochrome B-mode tomographic image) representing a cross-section corresponding to a straight line including the line segment and extending both ends thereof. Image). For this reason, the cross-sectional image 100 covering a wide range beyond both sides of the measurement path marker 114 corresponding to the line segment is displayed.
線分マーカー108は、対象組織の視点側に表示されており、それは線分の水平方向の位置及び長さを示すものである。望ましくは、投影面が存在する高さに相当する位置に線分マーカー108が表示される。但し、その表示高さを変更してもよい。計測経路マーカー114及び対象組織断面に被らない位置に、線分マーカー108を表示するのが望ましい。線分マーカー108は、その本体をなすラインの他、線分の両端を表す2つの端点マーカー110,112を有している。このように2つの線分マーカー94,108を表示することにより、三次元組織画像と断面画像の空間的関係や、線分と計測経路マーカーとの空間的関係を直感的に認識することが可能となる。 The line segment marker 108 is displayed on the viewpoint side of the target tissue, and indicates the horizontal position and length of the line segment. Desirably, the line segment marker 108 is displayed at a position corresponding to the height at which the projection plane exists. However, the display height may be changed. It is desirable to display the line segment marker 108 at a position that does not cover the measurement path marker 114 and the target tissue section. The line segment marker 108 has two end point markers 110 and 112 representing both ends of the line segment in addition to the line forming the main body. By displaying the two line segment markers 94 and 108 in this way, it is possible to intuitively recognize the spatial relationship between the three-dimensional tissue image and the cross-sectional image and the spatial relationship between the line segment and the measurement path marker. It becomes.
計測経路マーカー114は、線分に対応する計測経路を表すラインである。計測経路は、断面上において、対象組織の表層又は表面に沿って設定される。すなわち、計測経路マーカー114は、断面画像100において、対象組織の表層内にそれをトレースするように表現されるラインである。符号100Aは対象組織の視点側表面を示している。計測経路マーカー114は、線分の両端に対応する2つの端点マーカー116,118を有する。左側の端点マーカー110と左側の端点マーカー116とを通過するラインとして視線マーカー122が表示されている。左側の端点マーカー112と左側の端点マーカー118とを通過するラインとして視線マーカー124が表示されている。それらによって、視線方向あるいは線分投影方向を直感的に認識でき、また、線分マーカー108と計測経路マーカー114との対応関係を容易に把握できる。表示画面の右下には、計測経路の長さを示す経路長が数値として表示されている。計測経路に基づいて、曲率、凹凸度、直線距離、輝度分布、輝度ヒストグラム、等が演算されてもよい。 The measurement path marker 114 is a line representing a measurement path corresponding to a line segment. The measurement path is set along the surface layer or surface of the target tissue on the cross section. That is, the measurement path marker 114 is a line expressed in the cross-sectional image 100 so as to trace it in the surface layer of the target tissue. Reference numeral 100A indicates the viewpoint side surface of the target tissue. The measurement path marker 114 has two end point markers 116 and 118 corresponding to both ends of the line segment. A line-of-sight marker 122 is displayed as a line passing through the left end point marker 110 and the left end point marker 116. A line-of-sight marker 124 is displayed as a line passing through the left end point marker 112 and the left end point marker 118. Accordingly, the line-of-sight direction or the line segment projection direction can be intuitively recognized, and the correspondence between the line segment marker 108 and the measurement path marker 114 can be easily grasped. In the lower right of the display screen, a path length indicating the length of the measurement path is displayed as a numerical value. Based on the measurement path, curvature, unevenness, linear distance, luminance distribution, luminance histogram, and the like may be calculated.
図5に戻って、S20では、補正を行うか否かが判断され、補正を行う場合には後に詳述するS22において補正処理が実行され、その後、S12以降の各工程が繰り返し実行される。 Returning to FIG. 5, in S20, it is determined whether or not correction is to be performed. When correction is performed, correction processing is executed in S22 described in detail later, and thereafter, each step after S12 is repeatedly executed.
図8には、三次元組織画像126と断面画像128との空間的な関係が概念図として示されている。なお、そこに含まれる複数の像の空間的な相互関係を正解するために「前」及び「後」のラベルが付されている。 In FIG. 8, a spatial relationship between the three-dimensional tissue image 126 and the cross-sectional image 128 is shown as a conceptual diagram. In addition, labels “before” and “after” are attached in order to correctly understand the spatial correlation between a plurality of images included therein.
三次元組織画像126上には線分(及び線分マーカー132)が設定される。線分により、それを含む断面130が定義される(便宜上、断面130がやや傾斜した状態で表現されている)。断面134は断面130の向きを変えて(より面が見えるように開いた姿勢をもって)その内容を表示したものである。断面134上に、線分136と計測経路138との関係が示されている。断面130,134上の組織構造を表したものが断面画像128である。それと共に線分マーカー140及び計測経路マーカー142が表示される。断面画像128の裏面を表現したものが断面128Aである。そこには線分マーカー140に相当するライン140Aと、計測経路マーカー142に相当するライン142Aと、が表現されている。一般に、ユーザーは、主画像及び参照画像の観察に際して、上述したような補助的な複数のグラフィック要素を媒介として、図8に示した空間的関係を容易に認識できる。 A line segment (and a line segment marker 132) is set on the three-dimensional tissue image 126. The line segment defines a cross section 130 including the line segment (for convenience, the cross section 130 is expressed in a slightly inclined state). The cross section 134 displays the contents of the cross section 130 by changing the direction (with the posture so as to be more visible). On the cross section 134, the relationship between the line segment 136 and the measurement path 138 is shown. A cross-sectional image 128 represents the tissue structure on the cross-sections 130 and 134. At the same time, a line segment marker 140 and a measurement path marker 142 are displayed. A cross section 128 </ b> A represents the back surface of the cross section image 128. A line 140A corresponding to the line segment marker 140 and a line 142A corresponding to the measurement path marker 142 are represented there. In general, when observing a main image and a reference image, the user can easily recognize the spatial relationship shown in FIG. 8 through a plurality of auxiliary graphic elements as described above.
図9には第2表示例が示されている。拡大表示された主画像144は、三次元組織画像146と線分マーカー148とを含む。具体的には、表示画面内には、主画像144の右上部分に重合する画像として参照画像150が表示されている。参照画像150はこの例では比較的に小さな画像である。その表示位置及びそのサイズをユーザーによって変更することが可能である。参照画像150は断面画像152と計測経路マーカー154とを含む。この例では、参照画像150に第2の線分マーカーは含まれていないが、それを表示するようにしてもよい。 FIG. 9 shows a second display example. The enlarged main image 144 includes a three-dimensional tissue image 146 and a line segment marker 148. Specifically, the reference image 150 is displayed as an image superimposed on the upper right portion of the main image 144 in the display screen. The reference image 150 is a relatively small image in this example. The display position and the size can be changed by the user. The reference image 150 includes a cross-sectional image 152 and a measurement path marker 154. In this example, the reference line 150 does not include the second line segment marker, but it may be displayed.
次に、計測経路の補正について説明する。本実施形態では、断面画像上において表示された計測経路マーカーの形態を補正することにより、計測経路を補正することが可能である。図10には図9に示した主画像144と参照画像150とが示されている。カーソル156の移動等のユーザー操作によって、計測経路マーカー154Aの形態を変更し得る。具体的には、計測経路マーカー154A上の点158を指定して、その点158の座標を変更することにより、計測経路マーカー154Aの形態を任意に変更し得る。例えば、注目組織の表層に沿って計測経路マーカー154Aが描かれていない場合、その形態を修正して、対象組織内に計測経路を正しく設定することが可能である。図10に示す例では、参照画像150上において補正操作が行われており、つまり、平面としての断面上においてのみ計測経路の形態の変更が許容されている。これに対して、元になる線分それ自体の形態を補正することも可能である。あるいは、最初から曲線として線分を指定することに可能である。これについて以下に説明する。 Next, correction of the measurement path will be described. In this embodiment, it is possible to correct the measurement path by correcting the form of the measurement path marker displayed on the cross-sectional image. 10 shows the main image 144 and the reference image 150 shown in FIG. The form of the measurement path marker 154A can be changed by a user operation such as movement of the cursor 156. Specifically, the form of the measurement path marker 154A can be arbitrarily changed by designating the point 158 on the measurement path marker 154A and changing the coordinates of the point 158. For example, when the measurement path marker 154A is not drawn along the surface layer of the target tissue, it is possible to correct the form and correctly set the measurement path in the target tissue. In the example shown in FIG. 10, the correction operation is performed on the reference image 150, that is, the change of the form of the measurement path is allowed only on the cross section as a plane. On the other hand, it is also possible to correct the form of the original line segment itself. Alternatively, it is possible to specify a line segment as a curve from the beginning. This will be described below.
図11には、主画像160と参照画像166とが示されている。主画像160は三次元組織画像162と線分マーカー164とを含む。図示の例では、最初から線分として曲線が指定されており、あるいは、補正操作により直線が曲線に変更されており、結果として、曲線として線分マーカー164が指定されている。参照画像166は、断面画像168と計測経路マーカー170とを含む。断面画像168は、以下に図12を用いて説明するように、曲線としての線分に対応した、曲面としての断面を表す画像である。その断面は計測経路を含み、それが計測経路マーカー170として表示されている。 FIG. 11 shows a main image 160 and a reference image 166. The main image 160 includes a three-dimensional tissue image 162 and a line segment marker 164. In the illustrated example, a curve is specified as a line segment from the beginning, or a straight line is changed to a curve by a correction operation, and as a result, a line segment marker 164 is specified as a curve. The reference image 166 includes a cross-sectional image 168 and a measurement path marker 170. The cross-sectional image 168 is an image representing a cross section as a curved surface corresponding to a line segment as a curved line, as will be described below with reference to FIG. The cross section includes a measurement path, which is displayed as a measurement path marker 170.
図12において、既に説明したように、三次元組織画像上には曲線としての線分マーカー164が設定されている。三次元組織画像の手前側には断面172が模式的に表現されている。断面172は、線分マーカー164を奥行き方向(視線方向)に展開した面である。断面172には、線分マーカー164に対応する曲線164Aが描かれており、その両端点を通過する視線方向174に伸びる2つの視線が2つのライン178、180によって示されている。また、断面172上には計測経路マーカー170に対応する曲線176が描かれている。このように三次元組織画像上において、曲線を指定すると、それに従って、曲面としての断面が設定され、その断面上において計測経路が定義されることになる。参照画像166において、必要に応じて、カーソル156を用いて、計測経路マーカーつまり計測経路の形態を補正することが可能である。断面が平面の場合と同様に、断面が曲面の場合であっても計測経路を容易に補正することが可能である。 In FIG. 12, as already described, a line segment marker 164 as a curve is set on the three-dimensional tissue image. A cross section 172 is schematically represented on the front side of the three-dimensional tissue image. The cross section 172 is a surface in which the line segment marker 164 is developed in the depth direction (line-of-sight direction). In the cross section 172, a curve 164A corresponding to the line segment marker 164 is drawn, and two lines of sight extending in the line-of-sight direction 174 passing through the both end points are indicated by two lines 178 and 180. In addition, a curve 176 corresponding to the measurement path marker 170 is drawn on the cross section 172. Thus, when a curve is specified on the three-dimensional tissue image, a cross section as a curved surface is set accordingly, and a measurement path is defined on the cross section. In the reference image 166, it is possible to correct the form of the measurement path marker, that is, the measurement path, using the cursor 156 as necessary. As in the case where the cross section is a plane, the measurement path can be easily corrected even if the cross section is a curved surface.
三次元組織画像上での線分についての位置、形態、長さ等の補正と、断面画像上での計測経路つまり計測経路マーカーの位置、形態、長さ等の補正と、を併用して、注目する部位に沿った適切な計測経路を設定することが可能である。なお、断面画像上において、マニュアルで、計測経路マーカーに属するある点の座標を補正する場合、深さテーブルの内容よりもその補正が優先されることになる。補正に際してはスプライン補間等の公知の曲線生成アルゴリズムを適用可能である。補正に際しては、不動の固定点と可動の補正点とを区別して指定できるようにしてもよい。 Combined correction of the position, form, length, etc. of the line segment on the three-dimensional tissue image and correction of the measurement path on the cross-sectional image, that is, the position, form, length, etc. of the measurement path marker, It is possible to set an appropriate measurement path along the site of interest. Note that when manually correcting the coordinates of a certain point belonging to the measurement path marker on the cross-sectional image, the correction has priority over the contents of the depth table. For the correction, a known curve generation algorithm such as spline interpolation can be applied. In the correction, the fixed fixed point and the movable correction point may be specified separately.
上記実施形態によれば、三次元組織画像上で線分を指定するだけで注目組織の表層での経路長を求めることが可能である。また、曲線として線分を指定することができるので、所望の計測経路を自在に設定することが可能である。特に、線分に対応する断面を表す断面画像上において計測経路を確認できるので、計測が正しく行われていることを瞬時に確認できる。更に、投影面上で及び断面上で計測経路の形態を補正できるから、ユーザーにおいて三次元の座標を指定する場合における混乱を防止できる。なお、上記の手法を超音波ボリュームデータ以外の他の医療上のボリュームデータに適用することも可能であるが、特に、解像度が比較的に低く遠近感を得られにくい超音波ボリュームデータに対して上記の手法を適用するのが望ましい。 According to the embodiment, it is possible to obtain the path length on the surface layer of the target tissue simply by designating a line segment on the three-dimensional tissue image. In addition, since a line segment can be designated as a curve, a desired measurement path can be freely set. In particular, since the measurement path can be confirmed on the cross-sectional image representing the cross-section corresponding to the line segment, it can be instantaneously confirmed that the measurement is correctly performed. Furthermore, since the form of the measurement path can be corrected on the projection plane and on the cross section, it is possible to prevent confusion when the user designates three-dimensional coordinates. The above method can be applied to medical volume data other than ultrasonic volume data. However, the resolution is relatively low and it is difficult to obtain perspective. It is desirable to apply the above method.
上記実施形態は超音波診断装置への本発明の適用例であったが、コンピュータ等の情報処理装置に対して本発明が適用されてもよい。その場合、情報処理装置に対して超音波診断装置等から超音波ボリュームデータが与えられ、情報処理装置において超音波ボリュームデータに対する処理を実行することになる。計測項目としては、既に説明したように、距離計測(経路長計測)が一般的であるが、それ以外にも多様な計測項目があげられる。特に三次元計測を行う場合、空間的に計測経路を把握困難であるから、上記手法はそのような課題を克服する技術として産業上大きな価値を有するものである。 The above embodiment is an application example of the present invention to an ultrasonic diagnostic apparatus, but the present invention may be applied to an information processing apparatus such as a computer. In that case, ultrasonic volume data is given to the information processing apparatus from an ultrasonic diagnostic apparatus or the like, and processing on the ultrasonic volume data is executed in the information processing apparatus. As described above, distance measurement (path length measurement) is common as a measurement item, but there are various other measurement items. In particular, when performing three-dimensional measurement, it is difficult to grasp a measurement path spatially. Therefore, the above method has great industrial value as a technique for overcoming such a problem.
28 ボリュームレンダリング部、32 深さ演算部、36 主画像構成部、38 参照画像構成部、44 線分設定部、46 経路長演算部、48 計測経路設定部、50 計測経路補正部、92 三次元組織画像、94 第1の線分マーカー、100 断面画像、108 第2の線分マーカー、114 計測経路マーカー(計測経路)、200 主画像、202 参照画像。
28 Volume rendering unit, 32 Depth calculation unit, 36 Main image configuration unit, 38 Reference image configuration unit, 44 Line segment setting unit, 46 Path length calculation unit, 48 Measurement path setting unit, 50 Measurement path correction unit, 92 3D Tissue image, 94 first line segment marker, 100 cross-sectional image, 108 second line segment marker, 114 measurement path marker (measurement path), 200 main image, 202 reference image.
Claims (9)
前記三次元組織画像上に設定された線分に基づいて、注目組織に対して計測経路を設定する設定手段と、
超音波の送受波により得られた断面データであって前記線分を通過する視線列に対応する断面を表す断面データに基づいて、断面画像を形成する断面画像形成手段と、
前記三次元組織画像と前記線分を示す第1の線分マーカーとを含む主画像、及び、前記断面画像と前記計測経路を示す計測経路マーカーとを含む参照画像、を表示する表示手段と、
を含む、ことを特徴とする超音波ボリュームデータ処理装置。 A tertiary that forms a three-dimensional tissue image as a target tissue image viewed from the viewpoint by setting a plurality of lines of sight for volume data obtained by ultrasonic wave transmission and reception and performing pixel value calculation for each line of sight Original tissue image forming means;
Setting means for setting a measurement path for a target tissue based on a line segment set on the three-dimensional tissue image;
Cross-sectional image forming means for forming a cross-sectional image based on cross-sectional data obtained by transmitting and receiving ultrasonic waves and representing cross-section corresponding to a line of sight passing through the line segment;
Display means for displaying a main image including the three-dimensional tissue image and a first line segment marker indicating the line segment, and a reference image including the cross-sectional image and a measurement path marker indicating the measurement path;
An ultrasonic volume data processing apparatus comprising:
前記設定手段は、前記注目組織の表層に沿って前記計測経路を設定する、
ことを特徴とする超音波ボリュームデータ処理装置。 The apparatus of claim 1.
The setting means sets the measurement path along a surface layer of the tissue of interest;
An ultrasonic volume data processing apparatus.
前記ボリュームデータに対する視線単位での画素値演算に際して視線単位で前記注目組織の表層深さを特定し、これによって前記複数の視線に対応する複数の表層深さが登録されたテーブルを生成する生成手段を含み、
前記設定手段は前記テーブルにおいて前記視線列に対応する複数の表層深さからなる列を特定することにより前記計測経路を設定する、
ことを特徴とする超音波ボリュームデータ処理装置。 The apparatus of claim 2.
Generation means for specifying a surface layer depth of the tissue of interest in line-of-sight unit when calculating a pixel value in line-of-sight unit for the volume data, thereby generating a table in which a plurality of surface layer depths corresponding to the plurality of line-of-sight are registered Including
The setting means sets the measurement path by specifying a row composed of a plurality of surface layer depths corresponding to the line of sight in the table;
An ultrasonic volume data processing apparatus.
前記参照画像は、前記計測経路マーカーからその視点側に隔てられつつ表示された直線状のマーカーであって前記線分を示す第2の線分マーカーを含む、
ことを特徴とする超音波ボリュームデータ処理装置。 The apparatus of claim 1.
The reference image includes a second line segment marker that is a linear marker that is displayed while being separated from the measurement path marker on the viewpoint side, and that indicates the line segment,
An ultrasonic volume data processing apparatus.
前記参照画像は、
前記第2の線分マーカーの一方端点と前記計測経路マーカーの一方端点とを通る第1の視線マーカーと、
前記第2の線分マーカーの他方端点と前記計測経路マーカーの他方端点とを通る第2の視線マーカーと、
を含む、ことを特徴とする超音波ボリュームデータ処理装置。 The apparatus of claim 4.
The reference image is
A first line-of-sight marker passing through one end point of the second line segment marker and one end point of the measurement path marker;
A second line-of-sight marker passing through the other end point of the second line segment marker and the other end point of the measurement path marker;
An ultrasonic volume data processing apparatus comprising:
前記参照画像上において前記計測経路に対する補正操作があった場合に、前記計測経路を補正する補正手段を含む、
ことを特徴とする超音波ボリュームデータ処理装置。 The apparatus of claim 1.
Including correction means for correcting the measurement path when there is a correction operation for the measurement path on the reference image;
An ultrasonic volume data processing apparatus.
前記線分は直線状であり、
前記断面は平面であり、
前記計測経路は二次元的に変化する経路である、
ことを特徴とする超音波ボリュームデータ処理装置。 The apparatus of claim 1.
The line segment is straight,
The cross section is a plane;
The measurement path is a path that changes two-dimensionally,
An ultrasonic volume data processing apparatus.
前記線分は曲線状の線分であり、
前記断面は曲面であり、
前記計測経路は三次元的に変化する経路である、
ことを特徴とする超音波ボリュームデータ処理装置。 The apparatus of claim 1.
The line segment is a curved line segment,
The cross section is a curved surface;
The measurement path is a path that changes three-dimensionally,
An ultrasonic volume data processing apparatus.
前記超音波ボリュームデータ処理方法が、
超音波の送受波により得られたボリュームデータに対して複数の視線を設定し、視線単位で画素値演算を実行することにより、視点から見た注目組織像としての三次元組織画像を形成する工程と、
前記三次元組織画像上において線分を特定する工程と、
前記線分に基づいて注目組織に対して計測経路を設定する工程と、
超音波の送受波により得られた断面データであって前記線分を通過する視線列に対応する断面を表す断面データに基づいて、断面画像を形成する工程と、
前記三次元組織画像と前記線分を示す第1の線分マーカーとを含む主画像を生成する工程と、
前記断面画像と前記計測経路を示す計測経路マーカーとを含む参照画像を生成する工程と、
前記主画像と前記参照画像とを同時表示する工程と、
を含む、
ことを特徴とするプログラム。
An ultrasonic volume data processing apparatus is a program for executing an ultrasonic volume data processing method,
The ultrasonic volume data processing method comprises:
A step of forming a three-dimensional tissue image as a target tissue image viewed from the viewpoint by setting a plurality of lines of sight with respect to volume data obtained by transmission / reception of ultrasonic waves, and executing pixel value calculation for each line of sight When,
Identifying a line segment on the three-dimensional tissue image;
Setting a measurement path for the tissue of interest based on the line segment;
A step of forming a cross-sectional image based on cross-sectional data obtained by transmitting and receiving ultrasonic waves and representing cross-section corresponding to a line of sight passing through the line segment;
Generating a main image including the three-dimensional tissue image and a first line segment marker indicating the line segment;
Generating a reference image including the cross-sectional image and a measurement path marker indicating the measurement path;
Simultaneously displaying the main image and the reference image;
including,
A program characterized by that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015229759A JP2017093842A (en) | 2015-11-25 | 2015-11-25 | Ultrasonic volume data processor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015229759A JP2017093842A (en) | 2015-11-25 | 2015-11-25 | Ultrasonic volume data processor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017093842A true JP2017093842A (en) | 2017-06-01 |
Family
ID=58803165
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015229759A Pending JP2017093842A (en) | 2015-11-25 | 2015-11-25 | Ultrasonic volume data processor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017093842A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112568933A (en) * | 2019-09-29 | 2021-03-30 | 深圳迈瑞生物医疗电子股份有限公司 | Ultrasonic imaging method, apparatus and storage medium |
-
2015
- 2015-11-25 JP JP2015229759A patent/JP2017093842A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112568933A (en) * | 2019-09-29 | 2021-03-30 | 深圳迈瑞生物医疗电子股份有限公司 | Ultrasonic imaging method, apparatus and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5462598B2 (en) | Ultrasound diagnostic system | |
JP4931676B2 (en) | Ultrasonic diagnostic apparatus and volume data processing method | |
CN104080407B (en) | The M-mode ultra sonic imaging of free routing | |
US7532747B2 (en) | Method and apparatus for ultrasonic imaging in mmode | |
US11622743B2 (en) | Rib blockage delineation in anatomically intelligent echocardiography | |
KR101100464B1 (en) | An ultrasound system and method for providing a 3D ultrasound image based on a secondary region of interest | |
KR102539901B1 (en) | Methods and system for shading a two-dimensional ultrasound image | |
US20110066031A1 (en) | Ultrasound system and method of performing measurement on three-dimensional ultrasound image | |
JP7010948B2 (en) | Fetal ultrasound imaging | |
JP4847334B2 (en) | Ultrasonic imaging apparatus and projection image generation method | |
JP5525930B2 (en) | Ultrasound diagnostic device for generating and displaying 3D ultrasound images | |
US20120154400A1 (en) | Method of reducing noise in a volume-rendered image | |
KR20110095211A (en) | Ultrasound diagnostic device | |
EP2012140A1 (en) | Ultrasound diagnosis apparatus | |
JP7267928B2 (en) | Volume rendered ultrasound image | |
JPWO2010026823A1 (en) | Ultrasonic diagnostic apparatus and ultrasonic image display method | |
JP4922006B2 (en) | Ultrasonic diagnostic apparatus and data processing method | |
JP4865575B2 (en) | Ultrasonic diagnostic equipment | |
US20230267618A1 (en) | Systems and methods for automated ultrasound examination | |
JP6890677B2 (en) | A virtual light source embedded in a 3D volume and coupled to the crosshairs in the MPR diagram | |
JP5550443B2 (en) | Ultrasonic diagnostic apparatus and numerical simulation method in the apparatus | |
JP2017093842A (en) | Ultrasonic volume data processor | |
CN113662579A (en) | Ultrasonic diagnostic apparatus, medical image processing apparatus and method, and storage medium | |
US20230196580A1 (en) | Ultrasound diagnostic apparatus and ultrasound image processing method | |
JP4909137B2 (en) | Volume data processing apparatus and method |