JP2023160986A - Ultrasonic diagnostic device and analysis device - Google Patents
Ultrasonic diagnostic device and analysis device Download PDFInfo
- Publication number
- JP2023160986A JP2023160986A JP2023148511A JP2023148511A JP2023160986A JP 2023160986 A JP2023160986 A JP 2023160986A JP 2023148511 A JP2023148511 A JP 2023148511A JP 2023148511 A JP2023148511 A JP 2023148511A JP 2023160986 A JP2023160986 A JP 2023160986A
- Authority
- JP
- Japan
- Prior art keywords
- discrimination
- image data
- function
- medical image
- ultrasound
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Ultra Sonic Daignosis Equipment (AREA)
Abstract
Description
本発明の実施形態は、超音波診断装置及び解析装置に関する。 Embodiments of the present invention relate to an ultrasonic diagnostic device and an analysis device.
超音波診断装置は、超音波走査に対してリアルタイムで生成した超音波画像データにより示される超音波画像をリアルタイムで表示したり、過去の超音波走査により得られた超音波画像データにより示される超音波画像を表示したりする。超音波診断装置のリアルタイム性は、他の医用画像診断装置のリアルタイム性よりも優れており、大きな利点である。また、医用画像診断装置により生成された医用画像中の特徴的な部位(特徴部位)を自動的に検出するCAD(Computer Aided Detection)機能が知られている。 Ultrasonic diagnostic equipment displays in real time ultrasound images shown by ultrasound image data generated in real time in response to ultrasound scans, or displays ultrasound images shown by ultrasound image data obtained from past ultrasound scans. Display sound wave images. The real-time performance of ultrasound diagnostic equipment is superior to that of other medical image diagnostic equipment, and is a major advantage. Furthermore, a CAD (Computer Aided Detection) function is known that automatically detects a characteristic part (characteristic part) in a medical image generated by a medical image diagnostic apparatus.
本発明が解決しようとする課題は、特徴部位に関する判別結果を精度よく得ることができる超音波診断装置及び解析装置を提供することである。 The problem to be solved by the present invention is to provide an ultrasonic diagnostic apparatus and an analysis apparatus that can accurately obtain discrimination results regarding characteristic parts.
実施形態の超音波診断装置は、記憶部と、判別部とを備える。記憶部は、複数の段階のそれぞれに対応する複数の学習済みモデルのそれぞれであって、入力された医用画像データに描出される被検体の特徴部位に関する判別結果を出力する複数の判別処理のそれぞれを実行する際に用いられる複数の学習済みモデルのそれぞれを記憶する。判別部は、複数の学習済みモデルのうち少なくとも1つの学習済みモデルを用いて、少なくとも1つの学習済みモデルに対応する判別処理を実行することにより、被検体の特徴部位に関する判別結果を導出する。判別部は、複数の段階のそれぞれにおいて、他の段階で実行される判別処理とは異なる判別処理を実行する。 The ultrasonic diagnostic apparatus of the embodiment includes a storage section and a determination section. The storage unit stores each of the plurality of trained models corresponding to each of the plurality of stages, and each of the plurality of discrimination processes that outputs the discrimination result regarding the characteristic part of the subject depicted in the input medical image data. Stores each of a plurality of trained models used when executing . The discriminator uses at least one learned model among the plurality of learned models to perform a discrimination process corresponding to the at least one learned model, thereby deriving a discrimination result regarding the characteristic part of the subject. In each of the plurality of stages, the determination unit executes a determination process that is different from determination processes performed in other stages.
以下、図面を参照しながら、実施形態に係る超音波診断装置及び医用画像処理装置を説明する。なお、一つの実施形態又は変形例に記載した内容は、他の実施形態又は他の変形例にも同様に適用されてもよい。 DESCRIPTION OF THE PREFERRED EMBODIMENTS An ultrasound diagnostic apparatus and a medical image processing apparatus according to embodiments will be described below with reference to the drawings. Note that the content described in one embodiment or modification may be similarly applied to other embodiments or other modifications.
(第1の実施形態)
まず、第1の実施形態に係る解析システムの構成例について説明する。図1は、第1の実施形態に係る超音波診断システムの構成例を示す図である。図1に例示するように、第1の実施形態に係る超音波診断システムは、超音波診断装置1と、学習済みモデル生成装置200とを備える。超音波診断装置1と、学習済みモデル生成装置200とは、互いに通信可能に接続されている。第1の実施形態に係る超音波診断システムでは、学習済みモデル生成装置200が各種の学習済みモデルを生成する。また、学習済みモデル生成装置200は、各種の学習に用いたネットワーク構造及び計算パラメータ等の学習条件を記録する。そして、学習済みモデル生成装置200は、生成した各種の学習済みモデル及び記録した各種の学習条件を超音波診断装置1に送信する。そして、超音波診断装置1が、学習済みモデル生成装置200から送信された各種の学習済みモデル及び各種の学習条件を用いて、各種の判別処理を実行する。超音波診断装置1は、ある判別処理を実行する場合には、ある学習済みモデルと、この学習済みモデルに対応する学習条件とを用いる。
(First embodiment)
First, a configuration example of the analysis system according to the first embodiment will be described. FIG. 1 is a diagram showing a configuration example of an ultrasound diagnostic system according to a first embodiment. As illustrated in FIG. 1, the ultrasonic diagnostic system according to the first embodiment includes an ultrasonic
学習済みモデル生成装置200は、処理回路201を備える。処理回路201は、例えば、プロセッサにより実現される。処理回路201は、学習済みモデル生成機能201aを有する。
The trained model generation device 200 includes a processing circuit 201 . The processing circuit 201 is realized by, for example, a processor. The processing circuit 201 has a trained
学習済みモデル生成機能201aは、超音波画像データに描出される被検体Pの特徴部位に関する判別結果を出力するための判別処理を実行する際に用いられる学習済みモデルを生成する学習時の処理を実行する。なお、以下の説明では、特徴部位が乳腺の腫瘤である場合について説明するが、特徴部位は、これに限られない。
The trained
図2は、第1の実施形態に係る学習済みモデル生成機能201aにより実行される処理の一例を説明するための図である。図2に例示するように、学習済みモデル生成機能201aは、学習時の1段階目において、第1の学習済みモデル11aを生成し、第1の学習条件11bを記録する。また、学習済みモデル生成機能201aは、学習時の1段階目の次の2段階目において、第2の学習済みモデル12aを生成し、第2の学習条件12bを記録する。また、学習済みモデル生成機能201aは、学習時の2段階目の次の3段階目において、第3の学習済みモデル13aを生成し、第3の学習条件13bを記録する。学習済みモデル生成機能201aは、第1の学習済みモデル11aと、第2の学習済みモデル12aと、第3の学習済みモデル13aとを非同期で生成する。また、学習済みモデル生成機能201aは、第1の学習条件11bと、第2の学習条件12bと、第3の学習条件13bとを非同期で記録する。学習済みモデル生成機能201aは、生成部の一例である。
FIG. 2 is a diagram for explaining an example of processing executed by the trained
例えば、第1の学習条件11bは、超音波診断装置1が第1の判別処理を実行する際に使用される計算パラメータ群である。また、第1の学習済みモデル11aは、超音波診断装置1が第1の判別処理を実行する際に用いられる調整済みのパラメータである。第1の判別処理の詳細については後述する。
For example, the
また、第2の学習条件12bは、超音波診断装置1が第2の判別処理を実行する際に使用される計算パラメータ群である。また、第2の学習済みモデル12aは、超音波診断装置1が第2の判別処理を実行する際に用いられる調整済みのパラメータである。第2の判別処理の詳細については後述する。
Further, the
また、第3の学習条件13bは、超音波診断装置1が第3の判別処理を実行する際に使用される計算パラメータ群である。また、第3の学習済みモデル13aは、超音波診断装置1が第3の判別処理を実行する際に用いられる調整済みのパラメータである。第3の判別処理の詳細については後述する。
Further, the third learning condition 13b is a group of calculation parameters used when the ultrasound
このように、複数の学習済みモデルのそれぞれ及び複数の学習条件のそれぞれは、複数の段階のそれぞれに対応する。また、複数の学習済みモデルのそれぞれ及び複数の学習条件のそれぞれは、複数の判別処理のそれぞれを実行する際に用いられる。 In this way, each of the plurality of trained models and each of the plurality of learning conditions corresponds to each of the plurality of stages. Further, each of the plurality of trained models and each of the plurality of learning conditions are used when executing each of the plurality of discrimination processes.
図1の説明に戻り、超音波診断装置1は、装置本体100と、超音波プローブ101と、入力装置102と、ディスプレイ103と、速度検出器104とを有する。
Returning to the description of FIG. 1, the ultrasonic
超音波プローブ101は、超音波画像データを収集する際に用いられる。超音波プローブ101は、例えば、複数の圧電振動子を有する。複数の圧電振動子は、後述する装置本体100が有する送信回路110から供給される駆動信号に基づき超音波を発生する。また、超音波プローブ101は、被検体Pからの反射波を受信して電気信号(反射波信号)に変換し、反射波信号を装置本体100に送信する。また、超音波プローブ101は、例えば、圧電振動子に設けられる整合層と、圧電振動子から後方への超音波の伝播を防止するバッキング材等を有する。なお、超音波プローブ101は、装置本体100と着脱自在に接続される。 The ultrasound probe 101 is used when collecting ultrasound image data. The ultrasound probe 101 includes, for example, a plurality of piezoelectric vibrators. The plurality of piezoelectric vibrators generate ultrasonic waves based on a drive signal supplied from a transmission circuit 110 included in the device main body 100, which will be described later. Further, the ultrasound probe 101 receives a reflected wave from the subject P, converts it into an electric signal (reflected wave signal), and transmits the reflected wave signal to the apparatus main body 100. Further, the ultrasonic probe 101 includes, for example, a matching layer provided on the piezoelectric vibrator and a backing material that prevents propagation of ultrasonic waves backward from the piezoelectric vibrator. Note that the ultrasonic probe 101 is detachably connected to the apparatus main body 100.
超音波プローブ101から被検体Pに超音波が送信されると、送信された超音波は、被検体Pの体内組織における音響インピーダンスの不連続面で次々と反射され、反射波として超音波プローブ101が有する複数の圧電振動子にて受信される。受信される反射波の振幅は、超音波が反射される不連続面における音響インピーダンスの差に依存する。なお、送信された超音波パルスが、移動している血流や心臓壁等の表面で反射された場合の反射波は、ドプラ効果により、移動体の超音波送信方向に対する速度成分に依存して、周波数偏移を受ける。 When ultrasonic waves are transmitted from the ultrasound probe 101 to the subject P, the transmitted ultrasound waves are successively reflected by acoustic impedance discontinuities in the body tissue of the subject P, and are reflected back to the ultrasound probe 101 as reflected waves. is received by a plurality of piezoelectric vibrators possessed by the camera. The amplitude of the received reflected wave depends on the difference in acoustic impedance at the discontinuity surface from which the ultrasound wave is reflected. Note that when a transmitted ultrasound pulse is reflected from a moving bloodstream or a surface such as a heart wall, the reflected wave depends on the velocity component of the moving object in the ultrasound transmission direction due to the Doppler effect. , subject to frequency deviation.
超音波プローブ101は、装置本体100と着脱可能に設けられる。被検体P内の2次元領域の走査(2次元走査)を行なう場合、超音波診断装置1の操作者は、例えば、複数の圧電振動子が一列で配置された1Dアレイプローブを超音波プローブ101として装置本体100に接続する。1Dアレイプローブは、リニア型超音波プローブ、コンベックス型超音波プローブ、セクタ型超音波プローブ等である。また、被検体P内の3次元領域の走査(3次元走査)を行なう場合、操作者は、例えば、メカニカル4Dプローブや2Dアレイプローブを超音波プローブ101として装置本体100と接続する。メカニカル4Dプローブは、1Dアレイプローブのように一列で配列された複数の圧電振動子を用いて2次元走査が可能であるとともに、複数の圧電振動子を所定の角度(揺動角度)で揺動させることで3次元走査が可能である。また、2Dアレイプローブは、マトリックス状に配置された複数の圧電振動子により3次元走査が可能であるとともに、超音波を集束して送信することで2次元走査が可能である。
The ultrasonic probe 101 is provided detachably from the apparatus main body 100. When scanning a two-dimensional region within the subject P (two-dimensional scanning), the operator of the ultrasound
入力装置102は、例えば、マウス、キーボード、ボタン、パネルスイッチ、タッチコマンドスクリーン、フットスイッチ、トラックボール、ジョイスティック等の入力手段により実現される。入力装置102は、超音波診断装置1の操作者からの各種設定要求を受け付け、受け付けた各種設定要求を装置本体100に転送する。例えば、入力装置102は、超音波診断装置1の操作者から、超音波画像中の特徴的な部位(特徴部位)を自動的に検出するCAD処理を実行するための指示(実行指示)を受け付け、受け付けた実行指示を装置本体100の処理回路180に送信する。また、操作者は、入力装置102を介して、CAD処理において、特徴部位の検索範囲であるROI(Region Of Interest)を超音波画像に設定することもできる。
The
ディスプレイ103は、例えば、超音波診断装置1の操作者が入力装置102を用いて各種設定要求を入力するためのGUI(Graphical User Interface)を表示したり、装置本体100において生成された超音波画像データにより示される超音波画像等を表示したりする。ディスプレイ103は、液晶モニタやCRT(Cathode Ray Tube)モニタ等によって実現される。ディスプレイ103は、表示部の一例である。
The
速度検出器104は、超音波プローブ101に取り付けられて、超音波プローブ101の移動速度(スキャン速度、スキャンスピード)を検出する。そして、速度検出器104は、検出した移動速度を示す検出信号を装置本体100の処理回路180に送信する。例えば、速度検出器104は、磁気センサにより実現される。なお、速度検出器104は、磁気センサに限られず、超音波プローブ101の速度を検出可能な磁気センサ以外の公知のデバイスにより実現されてもよい。
The
装置本体100は、超音波プローブ101から送信される反射波信号に基づいて超音波画像データを生成する。装置本体100は、超音波プローブ101が送信した被検体Pの2次元領域に対応する反射波信号に基づいて2次元の超音波画像データを生成可能である。また、装置本体100は、超音波プローブ101が送信した被検体Pの3次元領域に対応する反射波信号に基づいて3次元の超音波画像データを生成可能である。 The apparatus main body 100 generates ultrasound image data based on reflected wave signals transmitted from the ultrasound probe 101. The apparatus main body 100 can generate two-dimensional ultrasound image data based on a reflected wave signal corresponding to a two-dimensional region of the subject P transmitted by the ultrasound probe 101. Further, the apparatus main body 100 can generate three-dimensional ultrasound image data based on the reflected wave signal corresponding to the three-dimensional region of the subject P transmitted by the ultrasound probe 101.
図1に示すように、装置本体100は、送信回路110と、受信回路120と、Bモード処理回路130と、ドプラ処理回路140と、画像生成回路150と、画像メモリ160と、記憶回路170と、処理回路180とを有する。送信回路110、受信回路120、Bモード処理回路130、ドプラ処理回路140、画像生成回路150、画像メモリ160、記憶回路170及び処理回路180は、互いに通信可能に接続されている。
As shown in FIG. 1, the apparatus main body 100 includes a transmission circuit 110, a reception circuit 120, a B-
送信回路110は、処理回路180による制御を受けて、超音波プローブ101から超音波を送信させる。送信回路110は、レートパルサ発生回路と、送信遅延回路と、送信パルサとを有し、超音波プローブ101に駆動信号を供給する。送信回路110は、被検体P内の2次元領域を走査する場合、超音波プローブ101から2次元領域を走査するための超音波ビームを送信させる。また、送信回路110は、被検体P内の3次元領域を走査する場合、超音波プローブ101から3次元領域を走査するための超音波ビームを送信させる。
The transmission circuit 110 causes the ultrasound probe 101 to transmit ultrasound under the control of the
レートパルサ発生回路は、所定のレート周波数(PRF:Pulse Repetition Frequency)で、送信超音波(送信ビーム)を形成するためのレートパルスを繰り返し発生する。レートパルスが送信遅延回路を経由することで、異なる送信遅延時間を有した状態で送信パルサに電圧が印加される。例えば、送信遅延回路は、超音波プローブ101から発生される超音波をビーム状に集束して送信指向性を決定するために必要な圧電振動子ごとの送信遅延時間を、レートパルサ発生回路により発生される各レートパルスに対して与える。送信パルサは、かかるレートパルスに基づくタイミングで、超音波プローブ101に駆動信号(駆動パルス)を印加する。なお、送信遅延回路は、各レートパルスに与える送信遅延時間を変化させることで、圧電振動子面からの超音波の送信方向を任意に調整する。 The rate pulsar generation circuit repeatedly generates rate pulses for forming transmission ultrasonic waves (transmission beams) at a predetermined rate frequency (PRF: Pulse Repetition Frequency). As the rate pulses pass through the transmission delay circuit, voltages are applied to the transmission pulsers with different transmission delay times. For example, the transmission delay circuit generates a transmission delay time for each piezoelectric vibrator, which is necessary to focus the ultrasound generated from the ultrasound probe 101 into a beam and determine the transmission directivity, using a rate pulser generation circuit. is given for each rate pulse. The transmission pulser applies a drive signal (drive pulse) to the ultrasound probe 101 at a timing based on the rate pulse. Note that the transmission delay circuit arbitrarily adjusts the transmission direction of the ultrasound from the piezoelectric vibrator surface by changing the transmission delay time given to each rate pulse.
駆動パルスは、送信パルサからケーブルを介して超音波プローブ101内の圧電振動子まで伝達した後に、圧電振動子において電気信号から機械的振動に変換される。この機械的振動によって発生した超音波は、被検体Pの生体内部に送信される。ここで、圧電振動子ごとに異なる送信遅延時間を持った超音波は、集束されて、所定方向に伝搬していく。 The drive pulse is transmitted from the transmitting pulser to the piezoelectric vibrator in the ultrasound probe 101 via the cable, and then converted from an electrical signal into a mechanical vibration in the piezoelectric vibrator. The ultrasonic waves generated by this mechanical vibration are transmitted into the living body of the subject P. Here, the ultrasonic waves having different transmission delay times for each piezoelectric vibrator are focused and propagated in a predetermined direction.
なお、送信回路110は、処理回路180による制御を受けて、所定のスキャンシーケンスを実行するために、送信周波数、送信駆動電圧等を瞬時に変更可能な機能を有する。特に、送信駆動電圧の変更は、瞬間にその値を切り替え可能なリニアアンプ型の発信回路、または、複数の電源ユニットを電気的に切り替える機構によって実現される。
Note that the transmitting circuit 110 has a function of instantaneously changing the transmitting frequency, transmitting drive voltage, etc. in order to execute a predetermined scan sequence under the control of the
超音波プローブ101により送信された超音波の反射波は、超音波プローブ101内部の圧電振動子まで到達した後、圧電振動子において、機械的振動から電気的信号(反射波信号)に変換される。そして、受信回路120は、超音波プローブ101から送信された反射波信号を受信する。受信回路120は、処理回路180による制御を受けて、反射波信号に対して各種処理を行なって反射波データを生成し、生成した反射波データをBモード処理回路130及びドプラ処理回路140に出力する。例えば、受信回路120は、1フレーム分の反射波信号を受信する度に、受信した反射波信号から1フレーム分の反射波データを生成する。受信回路120は、超音波プローブ101から送信された2次元の反射波信号から2次元の反射波データを生成する。また、受信回路120は、超音波プローブ101から送信された3次元の反射波信号から3次元の反射波データを生成する。
After the reflected waves of the ultrasound transmitted by the ultrasound probe 101 reach the piezoelectric vibrator inside the ultrasound probe 101, the mechanical vibrations are converted into electrical signals (reflected wave signals) in the piezoelectric vibrator. . Then, the receiving circuit 120 receives the reflected wave signal transmitted from the ultrasound probe 101. Under the control of the
受信回路120は、プリアンプと、A/D(Analog to Digital)変換器と、直交検波回路等を有する。プリアンプは、反射波信号をチャンネルごとに増幅してゲイン調整(ゲイン補正)を行なう。A/D変換器は、ゲイン補正された反射波信号をA/D変換することでゲイン補正された反射波信号をデジタル信号に変換する。直交検波回路は、デジタル信号をベースバンド帯域の同相信号(I信号、I:In-phase)と直交信号(Q信号、Q:Quadrature-phase)とに変換する。そして、直交検波回路は、I信号及びQ信号(IQ信号)を反射波データとしてBモード処理回路130及びドプラ処理回路140に出力する。
The receiving circuit 120 includes a preamplifier, an A/D (Analog to Digital) converter, a quadrature detection circuit, and the like. The preamplifier amplifies the reflected wave signal for each channel and performs gain adjustment (gain correction). The A/D converter converts the gain-corrected reflected wave signal into a digital signal by A/D converting the gain-corrected reflected wave signal. The quadrature detection circuit converts the digital signal into a baseband in-phase signal (I signal, I: In-phase) and a quadrature signal (Q signal, Q: Quadrature-phase). Then, the quadrature detection circuit outputs the I signal and the Q signal (IQ signal) to the B
Bモード処理回路130は、処理回路180による制御を受けて、受信回路120から出力された反射波データに対して、対数増幅、包絡線検波処理及び対数圧縮等を行なって、サンプル点ごとの信号強度(振幅強度)が輝度の明るさで表現されるデータ(Bモードデータ)を生成する。例えば、Bモード処理回路130は、1フレーム分の反射波データを受信する度に、受信した反射波データから1フレーム分のBモードデータを生成する。Bモード処理回路130は、生成したBモードデータを画像生成回路150に出力する。Bモード処理回路130は、例えば、プロセッサにより実現される。
Under the control of the
ドプラ処理回路140は、処理回路180による制御を受けて、受信回路120から出力された反射波データを周波数解析することで、ドプラ効果に基づく移動体(血流や組織、造影剤エコー成分等)の運動情報を抽出し、抽出した運動情報を示すデータ(ドプラデータ)を生成する。例えば、ドプラ処理回路140は、移動体の運動情報として、平均速度、分散及びパワー等を多点に渡り抽出し、抽出した移動体の運動情報を示すドプラデータを生成する。例えば、ドプラ処理回路140は、1フレーム分の反射波データを受信する度に、受信した反射波データから1フレーム分のドプラデータを生成する。ドプラ処理回路140は、生成したドプラデータを画像生成回路150に出力する。ドプラ処理回路140は、例えば、プロセッサにより実現される。
The
また、上記のドプラ処理回路140の機能を用いて、本実施形態に係る超音波診断装置1は、カラーフローマッピング法(CFM:Color Flow Mapping)とも呼ばれるカラードプラ法を実行可能である。CFM法では、超音波の送受信が複数の走査線上で複数回行なわれる。そして、CFM法では、同一位置のデータ列に対してMTI(Moving Target Indicator)フィルタを掛けることで、静止している組織、或いは、動きの遅い組織に由来する信号(クラッタ信号)を抑制して、血流に由来する信号を抽出する。そして、CFM法では、この血流信号から血流の速度、血流の分散、血流のパワー等の血流情報を推定する。後述する画像生成回路150は、推定結果の分布を、例えば、2次元でカラー表示した超音波画像データ(カラードプラ画像データ)を生成する。そして、ディスプレイ103は、カラードプラ画像データが示すカラードプラ画像を表示する。
Further, by using the function of the
Bモード処理回路130及びドプラ処理回路140は、2次元の反射波データ及び3次元の反射波データの両方について処理可能である。
The B-
画像生成回路150は、処理回路180による制御を受けて、Bモード処理回路130及びドプラ処理回路140が出力した各種のデータ(Bモードデータ及びドプラデータ)から超音波画像データを生成する。例えば、画像生成回路150は、Bモード処理回路130及びドプラ処理回路140から出力された1フレーム分の各種のデータを受信する度に、受信した各種のデータから1フレーム分の超音波画像データを生成する。すなわち、画像生成回路150は、超音波走査に対してリアルタイムで時系列に沿った複数の超音波画像データを所定のフレームレートで生成する。このようにして、本実施形態では、超音波プローブ101、受信回路120、Bモード処理回路130、ドプラ処理回路140及び画像生成回路150が、リアルタイムで、時系列に沿った複数の超音波画像データを所定のフレームレートで収集する。超音波画像データは、超音波プローブ101により行われた超音波走査により得られた反射波信号に基づくデータである。超音波プローブ101、受信回路120、Bモード処理回路130、ドプラ処理回路140及び画像生成回路150は、収集部の一例である。また、超音波画像データは、医用画像データの一例である。
The
そして、画像生成回路150は、リアルタイムで生成された時系列に沿った複数の超音波画像データを、画像メモリ160に記憶させる。具体例を挙げて説明すると、画像生成回路150は、1フレーム分の超音波画像データを生成する度に、生成した超音波画像データを画像メモリ160に記憶させる。例えば、超音波走査により得られた時系列に沿った複数の超音波画像データのうち、1番目に生成された超音波画像データは、1フレーム目の超音波画像データと称される。同様に、N(Nは、1以上の整数)番目に生成された超音波画像データは、Nフレーム目の超音波画像データと称される。
Then, the
画像生成回路150は、プロセッサにより実現される。ここで、画像生成回路150は、超音波走査の走査線信号列を、テレビ等に代表されるビデオフォーマットの走査線信号列に変換(スキャンコンバート)し、表示用の超音波画像データを生成する。例えば、画像生成回路150は、超音波プローブ101による超音波の走査形態に応じて座標変換を行なうことで、表示用の超音波画像データを生成する。また、画像生成回路150は、スキャンコンバート以外に種々の画像処理として、例えば、スキャンコンバート後の複数の画像フレームを用いて、輝度の平均値画像を再生成する画像処理(平滑化処理)や、画像内で微分フィルタを用いる画像処理(エッジ強調処理)等を行なう。また、画像生成回路150は、超音波画像データに、種々のパラメータの文字情報、目盛り、ボディーマーク等を合成する。
また、画像生成回路150は、Bモード処理回路130により生成された3次元のBモードデータに対して座標変換を行なうことで、3次元Bモード画像データを生成する。また、画像生成回路150は、ドプラ処理回路140により生成された3次元のドプラデータに対して座標変換を行なうことで、3次元ドプラ画像データを生成する。すなわち、画像生成回路150は、「3次元のBモード画像データ及び3次元ドプラ画像データ」を「3次元超音波画像データ(ボリュームデータ)」として生成する。そして、画像生成回路150は、ボリュームデータをディスプレイ103にて表示するための各種の2次元画像データを生成するために、ボリュームデータに対して様々なレンダリング処理を行なう。
Further, the
Bモードデータ及びドプラデータは、スキャンコンバート処理前の超音波画像データであり、画像生成回路150が生成するデータは、スキャンコンバート処理後の表示用の超音波画像データである。なお、Bモードデータ及びドプラデータは、生データ(Raw Data)とも呼ばれる。
The B-mode data and Doppler data are ultrasound image data before scan conversion processing, and the data generated by the
画像メモリ160は、画像生成回路150により生成された各種の画像データを記憶するメモリである。また、画像メモリ160は、Bモード処理回路130及びドプラ処理回路140により生成されたデータも記憶する。画像メモリ160が記憶するBモードデータやドプラデータは、例えば、診断の後に操作者が呼び出すことが可能となっており、画像生成回路150を経由して表示用の超音波画像データとなる。例えば、画像メモリ160は、RAM、フラッシュメモリ等の半導体メモリ素子、ハードディスク又は光ディスクによって実現される。
The
記憶回路170は、超音波送受信、画像処理及び表示処理を行なうための制御プログラム、診断情報(例えば、患者ID、医師の所見等)、並びに、診断プロトコル及び各種ボディーマーク等の各種データを記憶する。また、記憶回路170は、必要に応じて、画像メモリ160が記憶するデータの保管等にも使用される。例えば、記憶回路170は、フラッシュメモリ等の半導体メモリ素子、ハードディスク又は光ディスクによって実現される。記憶回路170は、記憶部の一例である。
The
処理回路180は、超音波診断装置1の処理全体を制御する。処理回路180は、例えば、プロセッサにより実現される。処理回路180は、制御機能181、速度検出機能182、取得機能183、判別機能184、マーカ情報生成機能185及び表示制御機能186の各処理機能を有する。
The
ここで、例えば、処理回路180が有する各処理機能は、コンピュータによって実行可能なプログラムの形態で記憶回路170に記憶される。図1に示す処理回路180の構成要素である制御機能181、速度検出機能182、取得機能183、判別機能184、マーカ情報生成機能185及び表示制御機能186の各処理機能は、コンピュータによって実行可能なプログラムの形態で記憶回路170に記憶されている。処理回路180は、各プログラムを記憶回路170から読み出し、読み出された各プログラムを実行することで、各プログラムに対応する機能を実現する。換言すると、各プログラムを読み出した状態の処理回路180は、図1の処理回路180内に示された各機能を有することとなる。
Here, for example, each processing function that the
上記説明において用いた「プロセッサ」という文言は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、若しくは、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、又は、フィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサは、例えば、記憶回路170に保存されたプログラムを読み出し実行することで機能を実現する。なお、記憶回路170にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。なお、本実施形態の各プロセッサは、プロセッサごとに単一の回路として構成される場合に限らず、複数の独立した回路を組み合わせて1つのプロセッサとして構成し、その機能を実現するようにしてもよい。更に、図1における複数の構成要素を1つのプロセッサへ統合してその機能を実現するようにしてもよい。以下の説明で用いられる「プロセッサ」という文言についても同様である。
The term "processor" used in the above description refers to, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an Application Specific Integrated Circuit (ASIC), or a programmable logic device (for example, It means a circuit such as a simple programmable logic device (SPLD), a complex programmable logic device (CPLD), or a field programmable gate array (FPGA). The processor realizes its functions by, for example, reading and executing a program stored in the
制御機能181は、入力装置102を介して操作者から入力された各種設定要求や、記憶回路170から読込んだ各種データに基づき、送信回路110、受信回路120、Bモード処理回路130、ドプラ処理回路140及び画像生成回路150の処理を制御する。
The control function 181 controls the transmission circuit 110, the reception circuit 120, the B-
速度検出機能182は、速度検出器104から送信される検出信号に基づいて、検出信号が示す超音波プローブ101の移動速度を算出することにより、超音波プローブ101の移動速度を検出する。例えば、速度検出機能182は、所定の時間間隔で、超音波プローブ101の移動速度を検出する。速度検出器104及び速度検出機能182は、検出部の一例である。
The
取得機能183は、学習済みモデル生成装置200から送信された第1の学習済みモデル11a、第2の学習済みモデル12a及び第3の学習済みモデル13aを取得する。そして、取得機能183は、取得した第1の学習済みモデル11a、第2の学習済みモデル12a及び第3の学習済みモデル13aを記憶回路170に記憶させる。また、取得機能183は、学習済みモデル生成装置200から送信された第1の学習条件11b、第2の学習条件12b及び第3の学習条件13bを取得する。そして、取得機能183は、取得した第1の学習条件11b、第2の学習条件12b及び第3の学習条件13bを記憶回路170に記憶させる。記憶回路170に記憶された各種の学習済みモデル及び各種の学習条件は、判別機能184が各種の判別処理を行う際に用いられる。
The
また、取得機能183は、入力装置102を介して操作者から入力されたCAD処理を実行するための指示(実行指示)を受信した場合に、時系列に沿った複数の超音波画像データを取得する。例えば、取得機能183は、実行指示を受信した後に、新たに生成された1フレーム分の超音波画像データが画像メモリ160に記憶される度に、画像メモリ160から、新たに生成された1フレーム分の超音波画像データを取得する。例えば、時系列に沿った複数の超音波画像データは、超音波走査により得られたデータ群である。このような超音波走査は、例えば、操作者により被検体Pの体表に沿って移動された超音波プローブ101の移動により被検体Pの内部の走査領域が移動されながら行われたり、超音波プローブ101が停止した状態で行われたりする。また、以下の説明において、時系列に沿った複数の超音波画像データのそれぞれは、例えば、Bモード画像データである。
Further, when receiving an instruction (execution instruction) to execute CAD processing input from the operator via the
判別機能184は、記憶回路170に記憶された各種の学習済みモデル及び各種の学習条件を用いて、特徴部位に関する判別結果を導出する運用時の処理を実行する。例えば、判別機能184は、新たに生成された1フレーム分の超音波画像データが取得機能183により取得される度に、取得された1フレーム分の超音波画像データを用いて、運用時の処理を実行する。
The determination function 184 uses various learned models and various learning conditions stored in the
図3は、第1の実施形態に係る判別機能184により実行される処理の一例を説明するための図である。図3に例示するように、運用時の1段階目において、判別機能184は、第1の学習済みモデル11a及び第1の学習条件11bを用いて、CAD処理として、超音波画像に特徴部位が含まれるか又は含まれないかを判別し、判別結果(第1の判別結果)を導出する第1の判別処理を実行する。すなわち、判別機能184により超音波画像に特徴部位が含まれると判別された場合には、特徴部位を検出したことになる。また、判別機能184により超音波画像に特徴部位が含まれないと判別された場合には、特徴部位を検出していないこととなる。
FIG. 3 is a diagram for explaining an example of a process executed by the determination function 184 according to the first embodiment. As illustrated in FIG. 3, in the first stage of operation, the discrimination function 184 uses the first trained
また、判別機能184は、運用時の2段階目において、第2の学習済みモデル12a及び第2の学習条件12bを用いて、運用時の1段階目において検出された特徴部位が良性であるか又は悪性であるかを判別し、判別結果(第2の判別結果)を導出する第2の判別処理を実行する。また、判別機能184は、運用時の3段階目において、第3の学習済みモデル13a及び第3の学習条件13bを用いて、運用時の2段階目において悪性と判別された特徴部位の悪性度を判別し、判別結果(第3の判別結果)を導出する第3の判別処理を実行する。例えば、悪性度としては、悪性度Aと、悪性度Aよりも悪性の度合いが高い悪性度Bの2つの悪性度が挙げられる。この場合、判別機能184は、悪性と判別された特徴部位の悪性度が、悪性度Aであるか又は悪性度Bであるかを判別する。以下、判別機能184が、悪性度として、悪性度A及び悪性度Bの2つの悪性度を判別する場合について説明するが、悪性度は、悪性度A及び悪性度Bの2つの悪性度に限られない。判別機能184は、判別部の一例である。
In addition, in the second stage of operation, the determination function 184 uses the second learned
図4は、第1の実施形態に係る学習時の1段階目の処理及び運用時の1段階目の処理の一例を説明するための図である。図4に例示するように、学習時の1段階目では、学習済みモデル生成機能201aは、超音波画像データ14と、第1のラベル15との関係を学習することによって、第1の学習済みモデル11aを生成し、第1の学習条件11bを記録する。ここで、第1のラベル15は、超音波画像データ14により示される超音波画像に特徴部位が含まれるか又は含まれないかを示すラベルである。すなわち、学習済みモデル生成機能201aは、超音波画像データ14と第1のラベル15とを対応付けて学習することにより、第1の学習済みモデル11aを生成し、第1の学習条件11bを記録する。超音波画像データ14は、例えば、Bモードデータから生成されたBモード画像データである。超音波画像データ14は、超音波診断装置1又は超音波診断装置1以外の超音波診断装置により生成されたデータである。
FIG. 4 is a diagram for explaining an example of the first stage processing during learning and the first stage processing during operation according to the first embodiment. As illustrated in FIG. 4, in the first stage of learning, the learned
なお、超音波画像データ14は、エッジ強調及びコントラスト強調等の前処理が施されたBモード画像データであってもよい。また、超音波画像データ14は、例えば、Bモードデータ(Bモードの生データ)であってもよい。また、超音波画像データ14は、カラードプラ画像データであってもよい。また、超音波画像データ14は、ストレインエラストにより得られたFLR(Fat Lesion Ratio)を示す画像データであってもよい。また、超音波画像データ14は、SWE(Shear Wave Elastography)により得られた、走査領域内の複数のサンプル点のそれぞれにおけるせん断速度に応じた画素値が各サンプル点に割り当てられたせん断速度画像データ(shear wave speed image data)であってもよい。また、超音波画像データ14は、超音波診断装置1又は超音波診断装置1以外の超音波診断装置により、ストレインエラスト又はSWEを実行中に得られたBモード画像データであってもよい。
Note that the ultrasound image data 14 may be B-mode image data that has been subjected to preprocessing such as edge enhancement and contrast enhancement. Further, the ultrasound image data 14 may be, for example, B-mode data (B-mode raw data). Further, the ultrasound image data 14 may be color Doppler image data. Further, the ultrasound image data 14 may be image data indicating FLR (Fat Lesion Ratio) obtained by strain elastosis. Further, the ultrasound image data 14 is shear velocity image data obtained by SWE (Shear Wave Elastography), in which pixel values are assigned to each sample point according to the shear velocity at each of a plurality of sample points within the scanning area. (shear wave speed image data). Further, the ultrasound image data 14 may be B-mode image data obtained by the ultrasound
また、第1のラベル15は、例えば、操作者が、超音波画像データ14により示される超音波画像に特徴部位が含まれるか又は含まれないか判断することにより得られるラベルである。なお、第1のラベル15は、超音波診断装置1又は他の装置により超音波画像データ14に対してCAD処理を施すことにより得られるラベルであってもよい。
Further, the first label 15 is a label obtained by, for example, an operator determining whether or not a characteristic region is included in the ultrasound image represented by the ultrasound image data 14. Note that the first label 15 may be a label obtained by performing CAD processing on the ultrasound image data 14 using the ultrasound
例えば、学習済みモデル生成機能201aは、超音波画像データ14と第1のラベル15の組を学習用データ(教師データ)として機械学習エンジンに入力することによって、機械学習を行う。
For example, the trained
例えば、機械学習エンジンは、ディープラーニング(Deep Learning)や、ニューラルネットワーク(Neural Network)、ロジスティック(Logistic)回帰分析、非線形判別分析、サポートベクターマシン(Support Vector Machine:SVM)、ランダムフォレスト(Random Forest)、ナイーブベイズ(Naive Bayes)等の各種のアルゴリズムを用いて機械学習を行う。 For example, machine learning engines include deep learning, neural networks, logistic regression analysis, nonlinear discriminant analysis, support vector machines (SVM), and random forests. Machine learning is performed using various algorithms such as , Naive Bayes, etc.
このような機械学習の結果として、学習済みモデル生成機能201aは、超音波画像データの入力に対して第1の判別結果を導出するための第1の判別処理において用いられる第1の学習済みモデル11aを生成する。また、上述したような機械学習の結果として、学習済みモデル生成機能201aは、第1の判別処理で計算に用いられる第1の学習条件11bを記録する。そして、学習済みモデル生成機能201aは、生成した第1の学習済みモデル11a及び記録した第1の学習条件11bを超音波診断装置1に送信する。これにより、超音波診断装置1の記憶回路170に第1の学習済みモデル11a及び第1の学習条件11bが記憶される。
As a result of such machine learning, the learned
なお、学習済みモデル生成装置200と、超音波診断装置1は、ネットワークを介して接続されていなくてもよい。この場合、学習済みモデル生成装置200により生成された各種の学習済みモデル及び各種の学習条件は、USB(Universal Serial Bus)メモリ等の記憶媒体に記憶される。そして、超音波診断装置1が、記憶媒体に記憶された各種の学習済みモデル及び各種の学習条件を読み出し、読み出した各種の学習済みモデル及び各種の学習条件を記憶回路170に記憶させる。
Note that the trained model generation device 200 and the ultrasound
次に、運用時の1段階目の処理の一例について説明する。図4に例示するように、運用時の1段階目において、判別機能184は、第1の学習済みモデル11a及び第1の学習条件11bを用いて、超音波画像データ16に示される超音波画像に特徴部位が含まれるか又は含まれないかを判別し、判別結果(第1の判別結果)17を導出する第1の判別処理をCAD処理として実行する。例えば、超音波画像データ16の種類は、超音波画像データ14の種類と同一である。例えば、上述した前処理が施されたBモード画像データ、上述した前処理が施されていないBモード画像データ、Bモードデータ、カラードプラ画像データ、ストレインエラストにより得られたFLRを示す画像データ、せん断速度画像データ、及び、ストレインエラスト又はSWEを実行中に得られたBモード画像データ等が、各種類の超音波画像データとして挙げられる。
Next, an example of the first stage processing during operation will be described. As illustrated in FIG. 4, in the first stage of operation, the discrimination function 184 uses the first learned
例えば、判別機能184は、超音波画像に特徴部位が含まれると判別した場合には、第1の判別結果17として、超音波画像に特徴部位が含まれることを示す情報を出力する。また、判別機能184は、超音波画像に特徴部位が含まれないと判別した場合には、第1の判別結果17として、超音波画像に特徴部位が含まれないことを示す情報を出力する。 For example, when determining that the ultrasound image includes a characteristic region, the determination function 184 outputs, as the first determination result 17, information indicating that the ultrasound image contains the characteristic region. Further, when determining that the ultrasound image does not include the characteristic region, the determination function 184 outputs information indicating that the ultrasound image does not include the characteristic region as the first determination result 17.
図5は、第1の実施形態に係る学習時の2段階目の処理及び運用時の2段階目の処理の一例を説明するための図である。図5に例示するように、学習時の2段階目では、学習済みモデル生成機能201aは、超音波画像データ20と、第2のラベル21との関係を学習することによって、第2の学習済みモデル12aを生成し、第2の学習条件12bを記録する。ここで、第2のラベル21は、超音波画像データ20により示される超音波画像に含まれる特徴部位が悪性であるのか又は良性であるのかを示すラベルである。すなわち、学習済みモデル生成機能201aは、超音波画像データ20と第2のラベル21とを対応付けて学習することにより、第2の学習済みモデル12aを生成し、第2の学習条件12bを記録する。
FIG. 5 is a diagram for explaining an example of second-stage processing during learning and second-stage processing during operation according to the first embodiment. As illustrated in FIG. 5, in the second stage of learning, the learned
第2の学習済みモデル12aを生成し、第2の学習条件12bを記録する際に用いられる超音波画像データ20は、特徴部位が描出された画像データである。超音波画像データ20は、例えば、Bモードデータから生成されたBモード画像データである。超音波画像データ20は、超音波診断装置1又は超音波診断装置1以外の超音波診断装置により生成されたデータである。
The ultrasound image data 20 used when generating the second trained
例えば、学習済みモデル生成機能201aは、超音波画像データ20と第2のラベル21の組を学習用データとして機械学習エンジンに入力することによって、機械学習を行う。
For example, the trained
このような機械学習の結果として、学習済みモデル生成機能201aは、特徴部位が描出された超音波画像データの入力に対して第2の判別結果を導出するための第2の判別処理において用いられる第2の学習済みモデル12aを生成する。また、上述したような機械学習の結果として、学習済みモデル生成機能201aは、第2の判別処理で計算に用いられる第2の学習条件12bを記録する。そして、学習済みモデル生成機能201aは、生成した第2の学習済みモデル12a及び記録した第2の学習条件12bを超音波診断装置1に送信する。これにより、超音波診断装置1の記憶回路170に第2の学習済みモデル12a及び第2の学習条件12bが記憶される。
As a result of such machine learning, the learned
次に、運用時の2段階目の処理の一例について説明する。図5に例示するように、運用時の2段階目において、判別機能184は、第2の学習済みモデル12a及び第2の学習条件12bを用いて、超音波画像データ22の入力に対して、超音波画像データ22に描出された特徴部位が良性であるか又は悪性であるかを判別し、判別結果(第2の判別結果)23を導出する第2の判別処理を実行する。
Next, an example of the second stage processing during operation will be described. As illustrated in FIG. 5, in the second stage of operation, the discrimination function 184 uses the second learned
例えば、判別機能184は、超音波画像データ22に描出された特徴部位が良性であると判別した場合には、第2の判別結果23として、特徴部位が良性であることを示す情報を出力する。また、判別機能184は、超音波画像データ22に描出された特徴部位が悪性であると判別した場合には、第2の判別結果23として、特徴部位が悪性であることを示す情報を出力する。
For example, when the determination function 184 determines that the characteristic region depicted in the
ここで、第2の判別結果23を導出する際に用いられる超音波画像データ22は、運用時の1段階目の第1の判別処理において特徴部位が含まれると判別された超音波画像データである。すなわち、第2の判別処理において用いられる超音波画像データ22は、第1の判別処理において特徴部位が含まれると判別された超音波画像データである。なお、例えば、超音波画像データ22の種類は、超音波画像データ20の種類と同一である。
Here, the
図6は、第1の実施形態に係る学習時の3段階目の処理及び運用時の3段階目の処理の一例を説明するための図である。図6に例示するように、学習時の3段階目では、学習済みモデル生成機能201aは、超音波画像データ26と、第3のラベル27との関係を学習することによって、第3の学習済みモデル13aを生成し、第3の学習条件13bを記録する。ここで、第3のラベル27は、超音波画像データ26により示される超音波画像に含まれる悪性の特徴部位の悪性度が悪性度Aであるのか又は悪性度Bであるのかを示すラベルである。すなわち、学習済みモデル生成機能201aは、超音波画像データ26と第3のラベル27とを対応付けて学習することにより、第3の学習済みモデル13aを生成し、第3の学習条件13bを記録する。
FIG. 6 is a diagram for explaining an example of the third stage processing during learning and the third stage processing during operation according to the first embodiment. As illustrated in FIG. 6, in the third stage of learning, the learned
第3の学習済みモデル13aを生成し、第3の学習条件13bを記録する際に用いられる超音波画像データ26は、悪性の特徴部位が描出された画像データである。超音波画像データ26は、例えば、Bモードデータから生成されたBモード画像データである。超音波画像データ26は、超音波診断装置1又は超音波診断装置1以外の超音波診断装置により生成されたデータである。
The ultrasound image data 26 used when generating the third learned model 13a and recording the third learning condition 13b is image data in which malignant characteristic parts are depicted. The ultrasound image data 26 is, for example, B-mode image data generated from B-mode data. The ultrasound image data 26 is data generated by the ultrasound
例えば、学習済みモデル生成機能201aは、超音波画像データ26と第3のラベル27の組を学習用データとして機械学習エンジンに入力することによって、機械学習を行う。
For example, the trained
このような機械学習の結果として、学習済みモデル生成機能201aは、悪性の特徴部位が描出された超音波画像データの入力に対して第3の判別結果を導出するための第3の判別処理において用いられる第3の学習済みモデル13aを生成する。また、上述したような機械学習の結果として、学習済みモデル生成機能201aは、第3の判別処理で計算に用いられる第3の学習条件13bを記録する。そして、学習済みモデル生成機能201aは、生成した第3の学習済みモデル13a及び記録した第3の学習条件13bを超音波診断装置1に送信する。これにより、超音波診断装置1の記憶回路170に第3の学習済みモデル13a及び第3の学習条件13bが記憶される。
As a result of such machine learning, the learned
次に、運用時の3段階目の処理の一例について説明する。図6に例示するように、運用時の3段階目において、判別機能184は、第3の学習済みモデル13a及び第3の学習条件13bを用いて、超音波画像データ28の入力に対して、超音波画像データ28に描出された悪性の特徴部位の悪性度が、悪性度Aであるか又は悪性度Bであるかを判別し、判別結果(第3の判別結果)29を導出する第3の判別処理を実行する。
Next, an example of the third stage processing during operation will be described. As illustrated in FIG. 6, in the third stage of operation, the discrimination function 184 uses the third learned model 13a and the third learning condition 13b to A third step that determines whether the malignancy of the malignant characteristic site depicted in the
例えば、判別機能184は、超音波画像データ28に描出された悪性の特徴部位の悪性度が悪性度Aであると判別した場合には、第3の判別結果29として、悪性の特徴部位の悪性度が悪性度Aであることを示す情報を出力する。また、判別機能184は、超音波画像データ28に描出された悪性の特徴部位の悪性度が悪性度Bであると判別した場合には、第3の判別結果29として、悪性の特徴部位の悪性度が悪性度Bであることを示す情報を出力する。
For example, when determining that the malignancy of the malignant characteristic site depicted in the
ここで、第3の判別結果29を導出する際に用いられる超音波画像データ28は、運用時の2段階目の第2の判別処理において悪性であると判別された特徴部位が描出された超音波画像データである。すなわち、第3の判別処理において用いられる超音波画像データ28は、第2の判別処理において悪性であると判別された特徴部位が描出された超音波画像データである。なお、例えば、超音波画像データ28の種類は、超音波画像データ26の種類と同一である。
Here, the
以上、図2~6を参照して、学習時の処理及び運用時の処理の一例について説明した。上述したように、学習済みモデル生成機能201aは、超音波画像データと、超音波画像データに描出される特徴部位に関するラベルとを対応付けて学習することにより、各種の学習済みモデルを生成し、各種の学習条件を記録する。各種の学習済みモデル及び各種の学習条件を用いた各種の判別処理は、特徴部位に関する判別結果を出力する。学習済みモデル生成機能201aは、このような学習済みモデルを、学習時の複数の段階(上述した学習時の1段階目~3段階目)のそれぞれにおいて生成する。また、学習済みモデル生成機能201aは、このような学習条件を、学習時の複数の段階のそれぞれにおいて記録する。
An example of the process during learning and the process during operation has been described above with reference to FIGS. 2 to 6. As described above, the learned
学習済みモデル生成機能201aは、学習時の各段階において、特定の判別を行う機能に特化した学習済みモデルを生成し、学習条件を記録する。このため、学習時の各段階において生成された学習済みモデル及び記録された学習条件に基づく判別処理は、特定の判別を精度よく行うことができる処理である。例えば、学習済みモデル生成機能201aは、学習時の1段階目では、超音波画像に特徴部位が含まれるか又は含まれないかという判別を行う機能に特化した第1の学習済みモデル11aを生成し、第1の学習条件11bを記録する。このため、第1の学習済みモデル11a及び第1の学習条件11bに基づく第1の判別処理によれば、超音波画像に特徴部位が含まれるか又は含まれないかを精度よく判別することができる。
The trained
また、学習済みモデル生成機能201aは、学習時の2段階目では、特徴部位が悪性であるか又は良性であるかという判別を行う機能に特化した第2の学習済みモデル12aを生成し、第2の学習条件12bを記録する。このため、第2の学習済みモデル12a及び第2の学習条件12bに基づく第2の判別処理によれば、特徴部位が悪性であるか又は良性であるかを精度よく判別することができる。
Furthermore, in the second stage of learning, the trained
また、学習済みモデル生成機能187は、学習時の3段階目では、悪性である特徴部位の悪性度が悪性度Aであるか又は悪性度Bであるかという判別を行う機能に特化した第3の学習済みモデル13aを生成し、第3の学習条件13bを記録する。このため、第3の学習済みモデル13a及び第3の学習条件13bに基づく第3の判別処理によれば、悪性である特徴部位の悪性度が悪性度Aであるか又は悪性度Bであるかを精度よく判別することができる。 In addition, in the third stage of learning, the learned model generation function 187 has a function specialized for determining whether the malignancy of a malignant characteristic part is malignancy level A or malignancy level B. The third learned model 13a is generated, and the third learning condition 13b is recorded. Therefore, according to the third discrimination process based on the third learned model 13a and the third learning condition 13b, it is determined whether the malignancy of the malignant characteristic part is malignancy level A or malignancy level B. can be determined with high accuracy.
すなわち、判別機能184は、運用時の複数の段階のそれぞれにおいて、他の段階で実行される判別処理とは異なる特有の判別処理を実行する。したがって、第1の学習済みモデル11a、第2の学習済みモデル12a及び第3の学習済みモデル13a、並びに、第1の学習条件11b、第2の学習条件12b及び第3の学習条件13bを有する超音波診断装置1によれば、特徴部位に関する各種の判別結果を精度よく得ることができる。
That is, the determination function 184 executes a unique determination process that is different from determination processes performed in other stages at each of a plurality of stages during operation. Therefore, it has a first trained
また、上述したように、学習済みモデル生成機能201aは、例えば、悪性であるか又は良性であるかの判別対象である特徴部位が描出されていない超音波画像データを用いずに、特徴部位が描出された超音波画像データを用いて、第2の学習済みモデル12aを生成する。このため、学習済みモデル生成機能201aは、第2の学習済みモデル12aを生成する際の機械学習の収束を早めることができる。
Furthermore, as described above, the trained
また、学習済みモデル生成機能201aは、例えば、悪性度Aであるか又は悪性度Bであるかの判別対象でない良性の特徴部位が描出された超音波画像データを用いずに、このような判別対象である悪性の特徴部位が描出された超音波画像データを用いて、第3の学習済みモデル13aを生成する。このため、学習済みモデル生成機能201aは、第3の学習済みモデル13aを生成する際の機械学習の収束を早めることができる。
In addition, the trained
また、上述したように、判別機能184は、運用時の複数の段階(上述した運用時の1段階目~3段階目)のそれぞれにおいて、各種の学習済みモデル及び各種の学習条件を用いて、特徴部位に関する各種の判別結果を導出する。例えば、判別機能184は、運用時の1段階目において、入力された超音波画像データ16に描出される特徴部位に関する第1の判別結果17を導出する。また、判別機能184は、運用時の2段階目において、入力された超音波画像データ22に描出された特徴部位に関する第2の判別結果23を導出する。また、判別機能184は、運用時の3段階目において、入力された超音波画像データ28に描出された特徴部位に関する第3の判別結果29を導出する。
In addition, as described above, the determination function 184 uses various learned models and various learning conditions in each of the plurality of stages during operation (the first to third stages during operation described above). Deriving various discrimination results regarding characteristic parts. For example, in the first stage of operation, the discrimination function 184 derives the first discrimination result 17 regarding the characteristic region depicted in the input
また、判別機能184は、第1の判別処理により導出された所定の判別結果に対応する超音波画像データ22(図5参照)を、第2の判別処理に入力する。ここで、第1の判別処理により導出された所定の判別結果とは、超音波画像に特徴部位が含まれることを示す場合の第1の判別結果17(図4参照)を指す。 Further, the discrimination function 184 inputs the ultrasound image data 22 (see FIG. 5) corresponding to the predetermined discrimination result derived by the first discrimination process to the second discrimination process. Here, the predetermined discrimination result derived by the first discrimination process refers to the first discrimination result 17 (see FIG. 4) that indicates that a characteristic region is included in the ultrasound image.
すなわち、判別機能184は、第2の判別処理に対して、悪性であるか又は良性であるかの判別対象である特徴部位が描出されていない超音波画像データを入力せずに、特徴部位が描出された超音波画像データ22を入力する。そして、判別機能184は、第2の判別処理により導出された第2の判別結果23を、運用時の2段階目に対応する判別結果として導出する。
In other words, the discrimination function 184 performs the second discrimination process without inputting ultrasound image data in which the characteristic region to be determined as malignant or benign is depicted. The rendered
また、判別機能184は、第2の判別処理により導出された所定の判別結果に対応する超音波画像データ28(図6参照)を、第3の判別処理に入力する。ここで、第2の判別処理により導出された所定の判別結果とは、特徴部位が悪性であることを示す場合の第2の判別結果23(図5参照)を指す。 Further, the discrimination function 184 inputs the ultrasound image data 28 (see FIG. 6) corresponding to the predetermined discrimination result derived by the second discrimination process to the third discrimination process. Here, the predetermined discrimination result derived by the second discrimination process refers to the second discrimination result 23 (see FIG. 5) that indicates that the characteristic site is malignant.
すなわち、判別機能184は、第3の判別処理に対して、悪性度Aであるか又は悪性度Bであるかの判別対象である悪性の特徴部位が描出されていない超音波画像データを入力せずに、悪性の特徴部位が描出された超音波画像データ28を入力する。そして、判別機能184は、第3の判別処理により導出された第3の判別結果29を、3段階目に対応する判別結果として導出する。
In other words, the discrimination function 184 inputs ultrasonic image data in which a characteristic malignant region that is to be determined as being grade A or grade B is not visualized for the third discrimination process.
このように、判別機能184は、複数の段階のうち、一の段階に対応する判別処理により導出された所定の判別結果に対応する超音波画像データを、一の段階の次の段階に対応する判別処理に入力し、一の段階の次の段階に対応する判別処理により導出された判別結果を、一の段階の次の段階に対応する判別結果として導出する。 In this way, the discrimination function 184 selects the ultrasound image data corresponding to the predetermined discrimination result derived by the discrimination process corresponding to one of the plurality of stages to the next stage of the first stage. The input is input to the discrimination process, and the discrimination result derived by the discrimination process corresponding to the next stage of the first stage is derived as the discrimination result corresponding to the next stage of the first stage.
上述したように、判別機能184は、超音波画像に特徴部位が含まれるか又は含まれないかを精度よく判別することができる第1の学習済みモデル11a及び第1の学習条件11bを用いて、第1の判別結果17(図4参照)を導出する。したがって、判別機能184は、判別精度が良好な第1の判別結果17を導出することができる。
As described above, the discrimination function 184 uses the first trained
また、判別機能184は、特徴部位が悪性であるか又は良性であるかを精度よく判別することができる第2の学習済みモデル12a及び第2の学習条件12bを用いて、第2の判別結果23(図5参照)を導出する。したがって、判別機能184は、判別精度が良好な第2の判別結果23を導出することができる。
Further, the discrimination function 184 uses the second trained
また、判別機能184は、特徴部位の悪性度が悪性度Aであるか又は悪性度Bであるかを精度よく判別することができる第3の学習済みモデル13a及び第3の学習条件13bを用いて、第3の判別結果29(図6参照)を導出する。したがって、判別機能184は、判別精度が良好な第3の判別結果29を導出することができる。
Further, the discrimination function 184 uses the third learned model 13a and the third learning condition 13b that can accurately discriminate whether the malignancy of the characteristic region is malignancy level A or malignancy level B. Then, a third determination result 29 (see FIG. 6) is derived. Therefore, the discrimination function 184 can derive the
これらのことから、第1の実施形態に係る超音波診断装置1によれば、特徴部位に関する判別結果を精度よく得ることができる。
For these reasons, according to the ultrasonic
次に、運用時の第1段階目において、判別機能184が第1の学習済みモデル11a及び第1の学習条件11bを用いて実行する第1の判別処理の一例について説明する。図7は、第1の実施形態に係る第1の判別処理の一例の流れを示すフローチャートである。
Next, an example of the first discrimination process executed by the discrimination function 184 using the first learned
図7に示すように、判別機能184は、第1の検出処理を実行し(ステップS101)、第2の検出処理を実行する(ステップS102)。 As shown in FIG. 7, the determination function 184 executes a first detection process (step S101) and a second detection process (step S102).
まず、ステップS101で実行される第1の検出処理について説明する。判別機能184は、検索窓と第1の検索用学習済みモデルと検索アルゴリズムとを用いて、操作者により超音波画像に設定された検索範囲(ROI)における特徴部位を検索する。例えば、判別機能184は、検索範囲内で検索窓を複数の位置に移動させる。また、判別機能184は、各位置において、検索窓内の画像情報を、第1の検索用学習済みモデルと検索アルゴリズムとを用いて解析することにより、各検索窓内の画像情報が特徴部位に相当する確率(第1の確率)を算出する。 First, the first detection process executed in step S101 will be described. The determination function 184 uses the search window, the first trained model for search, and the search algorithm to search for a characteristic region in a search range (ROI) set in the ultrasound image by the operator. For example, the determination function 184 moves the search window to multiple positions within the search range. In addition, the discrimination function 184 analyzes the image information in the search window at each position using the first search trained model and the search algorithm, so that the image information in each search window becomes a characteristic part. A corresponding probability (first probability) is calculated.
検索窓とは、例えば、第1の検索用学習済みモデルと比較される検索範囲内の領域の単位である。第1の検索用学習済みモデルは、例えば、特徴部位の標本となる画像情報を学習したモデルである。検索アルゴリズムとは、上述した第1の確率を算出し、処理対象の超音波画像において特徴部位に相当する画像情報を検索するためのアルゴリズムである。 The search window is, for example, a unit of area within the search range that is compared with the first trained model for search. The first trained model for search is, for example, a model that has been trained on image information that is a sample of a characteristic part. The search algorithm is an algorithm for calculating the above-mentioned first probability and searching for image information corresponding to a characteristic region in an ultrasound image to be processed.
第1の検索用学習済みモデルは、特徴部位を示す第1のパターンの一例である。 The first trained model for search is an example of a first pattern indicating a characteristic part.
そして、判別機能184は、算出された第1の確率が所定の閾値以上である場合に、検索窓で囲まれた範囲を、特徴部位(特徴部位の範囲)として検出する。すなわち、判別機能184は、超音波画像の一部分の特徴と、特徴部位を示す第1の検索用学習済みモデルの特徴とが類似している度合いを示す第1の確率が閾値以上である場合には、超音波画像に特徴部位が含まれると判別する。また、判別機能184は、第1の確率が閾値未満であるときには、超音波画像に特徴部位が含まれないと判別する。そして、判別機能184は、超音波画像に特徴部位が含まれるか又は含まれないかを判別した結果である第1の判別結果を導出する。第1の検出処理は、特徴部位検出処理の一例である。 Then, when the calculated first probability is greater than or equal to a predetermined threshold, the determination function 184 detects the range surrounded by the search window as a characteristic part (range of characteristic parts). That is, the discrimination function 184 determines that when the first probability indicating the degree of similarity between the feature of a part of the ultrasound image and the feature of the first search trained model indicating the characteristic region is greater than or equal to the threshold value. determines that a characteristic region is included in the ultrasound image. Further, the determination function 184 determines that the ultrasound image does not include the characteristic region when the first probability is less than the threshold value. Then, the determination function 184 derives a first determination result that is a result of determining whether or not the characteristic region is included in the ultrasound image. The first detection process is an example of a characteristic part detection process.
そして、判別機能184は、1フレーム分の超音波画像データ毎に、超音波画像に対する検索結果(検出結果)を記憶回路170に記憶させる。例えば、判別機能184は、1フレームの超音波画像から特徴部位を検出することができた場合には、特徴部位の位置を示す位置情報を検索結果として記憶回路170に記憶させる。なお、ここでいう特徴部位の位置は、超音波画像データの画像空間における位置である。
Then, the determination function 184 causes the
ここで、図8及び図9を参照して、判別機能184により検出される特徴部位には、正しく検出された特徴部位と、実際には特徴部位ではないのに誤って検出された特徴部位との2種類の特徴部位があることについて説明する。図8及び図9は、第1の実施形態に係る判別機能184による特徴部位の検出結果の一例を説明するための図である。 Here, with reference to FIGS. 8 and 9, the characteristic parts detected by the discrimination function 184 include a correctly detected characteristic part and a characteristic part that is not actually a characteristic part but is detected incorrectly. It will be explained that there are two types of characteristic parts. FIGS. 8 and 9 are diagrams for explaining an example of detection results of characteristic parts by the discrimination function 184 according to the first embodiment.
図8には、判別機能184により正しく検出された場合が示されている。図8に例示するように、例えば、判別機能184は、超音波画像に対して第1の検出処理を行って、検索窓30で囲まれた、実際の特徴部位31を含む範囲を特徴部位として検出する。そして、判別機能184は、超音波画像において検出された特徴部位の位置を示す情報を記憶回路170に記憶させる。
FIG. 8 shows a case where the discrimination function 184 correctly detects the detection. As illustrated in FIG. 8, for example, the discrimination function 184 performs a first detection process on the ultrasound image, and selects the range that includes the actual
一方、図9には、判別機能184により誤って特徴部位が検出された場合が示されている。図9に例示するように、例えば、判別機能184は、超音波画像に対して第1の検出処理を行って、検索窓30で囲まれた、実際の特徴部位31を含まない範囲を誤って特徴部位として検出する場合がある。このように、誤って特徴部位を検出することは、過検出(偽陽性)と呼ばれる。このような場合にも、判別機能184は、超音波画像において検出された特徴部位の位置を示す情報を記憶回路170に記憶させる。
On the other hand, FIG. 9 shows a case where a characteristic part is erroneously detected by the discrimination function 184. As illustrated in FIG. 9, for example, the discrimination function 184 performs the first detection process on the ultrasound image and erroneously detects a range that does not include the actual
また、判別機能184は、1フレームの超音波画像から、特徴部位を検出することができなかった場合には、特徴部位を検出することができなかったことを示す情報を検索結果として記憶回路170に記憶させる。
Further, when the characteristic region cannot be detected from one frame of the ultrasound image, the determination function 184 stores information indicating that the characteristic region could not be detected in the
なお、判別機能184は、検索窓30内の画像情報の特徴と第1の検索用学習済みモデルの特徴とが類似している度合いを示す指標の一例として、第1の確率を算出する場合について説明した。しかしながら、判別機能184は、第1の確率に代えて、検索窓30内の画像情報の特徴と第1の検索用学習済みモデルの特徴とが類似している度合いを示す類似度等の他の指標を算出してもよい。
Note that the determination function 184 calculates the first probability as an example of an index indicating the degree of similarity between the features of the image information in the
以上、ステップS101で実行される第1の検出処理の一例について説明した。図10は、第1の実施形態に係る第1の検出処理の結果の一例を示す図である。図10に示す「特徴部位と判定した結果」は、1フレームの超音波画像から、第1の検出処理により特徴部位であると判定された検索窓30の位置における検索窓30内の画像情報の一例を示す。図10に示す「特徴部位ではないと判定した結果」は、1フレームの超音波画像から、第1の検出処理により特徴部位が検出されなかった場合の検索窓30内の画像情報の一例を示す。なお、図10には、第1の検出処理において、検索範囲内の複数の位置に検索窓30が配置されて、各位置で第1の確率が算出された結果の例として、10ヶ所の画像情報が示されている。
An example of the first detection process executed in step S101 has been described above. FIG. 10 is a diagram illustrating an example of the results of the first detection process according to the first embodiment. The “results determined as characteristic regions” shown in FIG. 10 are image information in the
図10に示すように、判別機能184は、第1の検出処理において、6カ所の位置で特徴部位を検出する。具体的には、図10に示すように、判別機能184は、検索窓30内の6つの画像情報40a~40fが特徴部位であると判定する。
As shown in FIG. 10, the discrimination function 184 detects characteristic parts at six positions in the first detection process. Specifically, as shown in FIG. 10, the determination function 184 determines that six pieces of
画像情報40aは、実際の特徴部位31aが描出された画像情報である。画像情報40bは、過検出された画像情報である。画像情報40cは、実際の特徴部位31bが描出された画像情報である。画像情報40dは、実際の特徴部位31cが描出された画像情報である。画像情報40eは、実際の特徴部位31dが描出された画像情報である。画像情報40fは、過検出された画像情報である。すなわち、図10に示す場合には、特徴部位と判定された6つの画像情報のうち、2つの画像情報が過検出されている。
The
また、図10に示すように、判別機能184は、第1の検出処理において、4カ所の位置で特徴部位を検出しなかった。具体的には、図10に示すように、判別機能184は、検索窓30内の4つの画像情報40g~40jが特徴部位ではないと判定した。
Further, as shown in FIG. 10, the determination function 184 did not detect characteristic parts at four positions in the first detection process. Specifically, as shown in FIG. 10, the determination function 184 determines that the four pieces of
次に、ステップS102で実行される第2の検出処理について説明する。判別機能184は、過検出判別用学習済みモデルと検索アルゴリズムとを用いて、第1の検出処理において検出された特徴部位(検索窓30内の画像情報)が、第1の検出処理において過検出されると推定される画像情報に相当する確率(第2の確率)を算出する。 Next, the second detection process executed in step S102 will be explained. The discrimination function 184 uses a trained model for overdetection discrimination and a search algorithm to determine whether the feature region (image information within the search window 30) detected in the first detection process is overdetected in the first detection process. A probability (second probability) corresponding to the image information estimated to be generated is calculated.
過検出判別用学習済みモデルは、例えば、第1の検出処理において過検出されると推定される画像情報と、特徴部位の画像情報との判別を学習したモデルである。検索アルゴリズムとは、上述した第2の確率を算出し、処理対象の超音波画像において、第1の検出処理において過検出されると推定される画像情報に相当する画像情報を検索するためのアルゴリズムである。 The trained model for overdetection discrimination is, for example, a model that has learned to discriminate between image information estimated to be overdetected in the first detection process and image information of a characteristic part. The search algorithm is an algorithm that calculates the second probability described above and searches for image information corresponding to image information that is estimated to be over-detected in the first detection process in the ultrasound image to be processed. It is.
過検出判別用学習済みモデルは、第1の検出処理において、超音波画像に特徴部位が含まれないにも関わらず、特徴部位が含まれると誤って判別されると推定される画像情報の抽出を目的として学習したモデルである。過検出判別用学習済みモデルは、第2のパターンの一例である。 In the first detection process, the trained model for overdetection discrimination extracts image information that is estimated to be incorrectly determined if a characteristic part is included even though the ultrasound image does not contain a characteristic part. This is a model that was trained for the purpose of The trained model for overdetection discrimination is an example of the second pattern.
ここで、先の図10に例示するように、第1の検出処理において、6つの画像情報40a~40fが検出された場合について説明する。この場合、判別機能184は、第2の検出処理において、6つの画像情報40a~40fのそれぞれが、第1の検出処理において過検出されると推定される画像情報に相当する第2の確率を算出する。このように、判別機能184は、6つの画像情報40a~40fのそれぞれについて、第2の確率を算出する。
Here, as illustrated in FIG. 10, a case will be described in which six pieces of
そして、判別機能184は、6つの画像情報40a~40fのうち、算出された第2の確率が所定の閾値以上である画像情報を、第1の検出処理において過検出された画像情報として検出する。そして、判別機能184は、1フレーム分の超音波画像データ毎に、超音波画像に対する検索結果(検出結果)を記憶回路170に記憶させる。例えば、1フレームの超音波画像に対して、過検出された画像情報が検出された場合には、判別機能184は、検出された画像情報の位置を示す位置情報を検索結果として記憶回路170に記憶させる。
Then, the determination function 184 detects, among the six
なお、第2の検出処理では、判別機能184により、第1の検出処理において過検出された画像情報を正しく検出できる場合、及び、正しく検出できない場合がある。正しく検出できない場合には、第1の検出処理において過検出された画像情報ではない画像情報を誤って、第1の検出処理において過検出された画像情報として検出することが含まれる。 Note that in the second detection process, the determination function 184 may be able to correctly detect the image information that was overdetected in the first detection process, and may not be able to correctly detect it. If the detection cannot be performed correctly, this includes erroneously detecting image information that is not image information that was over-detected in the first detection process as image information that was over-detected in the first detection process.
また、例えば、1フレームの超音波画像に対して、過検出された画像情報が検出されなかった場合には、判別機能184は、検出されなかった画像情報の位置を示す位置情報を検索結果として記憶回路170に記憶させる。
Further, for example, if over-detected image information is not detected for one frame of ultrasound image, the determination function 184 uses position information indicating the position of the undetected image information as a search result. The data is stored in the
なお、判別機能184は、画像情報の特徴と過検出判別用学習済みモデルの特徴とが類似している度合いを示す指標の一例として、第2の確率を算出する場合について説明した。しかしながら、判別機能184は、第2の確率に代えて、画像情報の特徴と過検出判別用学習済みモデルの特徴とが類似している度合いを示す類似度等の他の指標を算出してもよい。 Note that a case has been described in which the discrimination function 184 calculates the second probability as an example of an index indicating the degree of similarity between the features of the image information and the features of the trained model for overdetection discrimination. However, instead of the second probability, the discrimination function 184 may calculate other indicators such as similarity, which indicates the degree to which the features of the image information and the features of the trained model for overdetection discrimination are similar. good.
以上、ステップS102で実行される第2の検出処理の一例について説明した。図11は、第1の実施形態に係る第2の検出処理の結果の一例を示す図である。図11には、先の図10に示す6つの画像情報40a~40fのそれぞれに対して、第2の検出処理が実行された結果が示されている。図11に示す「過検出と判定した結果」は、第2の検出処理により検出された画像情報の一例を示す。図11に示す「過検出ではないと判定した結果」は、第2の検出処理により検出されなかった画像情報の一例を示す。
An example of the second detection process executed in step S102 has been described above. FIG. 11 is a diagram illustrating an example of the results of the second detection process according to the first embodiment. FIG. 11 shows the results of performing the second detection process on each of the six pieces of
図11に示すように、判別機能184は、第2の検出処理において、第1の検出処理において過検出された画像情報として、2つの画像情報40b,40fを検出する。また、判別機能184は、第2の検出処理において、4つの画像情報40a,40c,40d,40eを検出していない。そして、判別機能184は、第2の検出処理において、6つの画像情報40a~40fのうち、検出された2つの画像情報40b,40f以外の4つの画像情報40a,40c,40d,40eを、実際の特徴部位が含まれる画像情報として検出する。これにより、第2の検出処理では、最終的に、4つの画像情報40a,40c,40d,40eが、特徴部位として検出される。
As shown in FIG. 11, in the second detection process, the determination function 184 detects two pieces of
上述したように、判別機能184は、第1の検出処理において検出された特徴部位の中から過検出された特徴部位を除く特徴部位を、第2の検出処理において最終的に特徴部位として検出する。 As described above, the discrimination function 184 finally detects the feature parts detected in the first detection process, excluding over-detected feature parts, as feature parts in the second detection process. .
すなわち、判別機能184は、第1の検出処理により超音波画像に含まれると判別された特徴部位の特徴と、過検出判別用学習済みモデルの特徴とが類似している度合いを示す第2の確率が閾値以上である場合には、第1の検出処理において超音波画像に含まれると判別された特徴部位が超音波画像に含まれないと訂正する。したがって、判別機能184は、精度良く特徴部位を検出することができる。第2の検出処理は、訂正処理の一例である。 That is, the discrimination function 184 uses a second detection function that indicates the degree of similarity between the feature of the feature region determined to be included in the ultrasound image by the first detection process and the feature of the trained model for overdetection discrimination. If the probability is greater than or equal to the threshold, it is corrected that the characteristic region determined to be included in the ultrasound image in the first detection process is not included in the ultrasound image. Therefore, the discrimination function 184 can detect the characteristic region with high accuracy. The second detection process is an example of a correction process.
ここで、操作者は、特徴部位の詳細ではなく、特徴部位があるか否かを把握したい場合には、超音波プローブ101を比較的広い範囲で比較的速く移動させると考えられる。一方、操作者は、既に特徴部位の存在を把握しており、特徴部位の詳細を把握したい場合には、特徴部位の周辺という比較的狭い範囲で比較的ゆっくりと超音波プローブ101を移動させると考えられる。 Here, if the operator wants to grasp whether or not there is a characteristic region rather than the details of the characteristic region, it is considered that the operator moves the ultrasound probe 101 relatively quickly over a relatively wide range. On the other hand, if the operator already knows the existence of a characteristic region and wants to grasp the details of the characteristic region, the operator can move the ultrasound probe 101 relatively slowly in a relatively narrow range around the characteristic region. Conceivable.
そこで、第1の実施形態に係る超音波診断装置1は、以下に説明するように、超音波プローブ101の移動速度に応じて、適切な処理を実行する。
Therefore, the ultrasound
図12は、第1の実施形態に係る超音波診断装置1が実行する処理の一例の流れを示すフローチャートである。例えば、超音波診断装置1は、図12に示す処理を、所定の時間間隔で実行する。
FIG. 12 is a flowchart showing an example of a process executed by the ultrasound
図12に示すように、判別機能184は、超音波プローブ101の移動速度が所定の閾値Th1よりも大きいか否かを判定する(ステップS201)。ここで、超音波プローブ101の移動速度が所定の閾値Th1よりも大きい場合には、例えば、操作者は、特徴部位の詳細ではなく、特徴部位があるか否かを把握したいと考えられる。ステップS201では、速度検出機能182が、超音波プローブ101の移動速度を検出する。そして、ステップS201では、判別機能184は、速度検出機能182により検出された超音波プローブ101の移動速度が閾値Th1よりも大きいか否かを判定する。閾値Th1は、第1の閾値の一例である。
As shown in FIG. 12, the determination function 184 determines whether the moving speed of the ultrasound probe 101 is greater than a predetermined threshold Th1 (step S201). Here, if the moving speed of the ultrasound probe 101 is greater than the predetermined threshold Th1, for example, the operator may want to grasp whether or not there is a characteristic region, rather than the details of the characteristic region. In step S201, the
超音波プローブ101の移動速度が所定の閾値Th1よりも大きいと判定された場合(ステップS201:Yes)には、ステップS202において、判別機能184は、以下に説明する処理を行う。 If it is determined that the moving speed of the ultrasound probe 101 is greater than the predetermined threshold Th1 (step S201: Yes), the determination function 184 performs the process described below in step S202.
例えば、ステップS202において、判別機能184は、第1のフレームレート(例えば、30fps)、及び、第2のフレームレート(例えば、15fps)の中から、判別結果を導出する際のフレームレートとして、第1のフレームレートを選択する。なお、ここでいうフレームレートは、例えば、単位時間あたりに処理される超音波画像データの数である。また、第2のフレームレートは第1のフレームレートよりも低い。
For example, in step S202, the determination function 184 selects the first frame rate (for example, 30 fps) and the second frame rate (for example, 15 fps) as the frame rate when deriving the determination result.
また、例えば、ステップS202において、判別機能184は、第1の導出処理及び第2の導出処理の中から、判別結果を導出する際の導出処理として、第1の導出処理を選択する。ここで、第1の導出処理は、先の図4に示す運用時の1段階目の第1の判別処理である。また、第2の導出処理は、第1の判別処理、先の図5に示す運用時の2段階目の第2の判別処理、及び、先の図6に示す運用時の3段階目の第3の判別処理である。 Further, for example, in step S202, the determination function 184 selects the first derivation process from the first derivation process and the second derivation process as the derivation process when deriving the determination result. Here, the first derivation process is the first determination process at the first stage during operation shown in FIG. 4 above. The second derivation process includes the first determination process, the second determination process at the second stage of operation shown in FIG. 5, and the third determination process at the third stage of operation shown in FIG. This is the determination process No. 3.
第1の導出処理は、第2の導出処理に比べて処理負荷が低い。このため、判別機能184は、第1の導出処理を実行する場合には、フレームレートを高くすることができる。したがって、上述したように、判別機能184は、ステップS202において、複数の種類のフレームレート(第1のフレームレート及び第2のフレームレート)の中から、比較的高い第1のフレームレートを選択する。 The first derivation process has a lower processing load than the second derivation process. Therefore, the determination function 184 can increase the frame rate when executing the first derivation process. Therefore, as described above, the determination function 184 selects a relatively high first frame rate from a plurality of types of frame rates (the first frame rate and the second frame rate) in step S202. .
また、ステップS201で肯定判定(ステップS201:Yes)された場合、上述したように、操作者は、特徴部位の詳細ではなく、特徴部位があるか否かを把握したいと考えられる。そのため、ステップS202では、判別機能184は、複数の種類の導出処理(第1の導出処理及び第2の導出処理)の中から、複数の種類の判別が行われる第2の導出処理ではなく、超音波画像に特徴部位が含まれるか否かの1種類の判別を行う第1の導出処理(第1の判別処理)を選択する。 Furthermore, if an affirmative determination is made in step S201 (step S201: Yes), as described above, the operator may want to grasp whether or not there is a characteristic region, rather than the details of the characteristic region. Therefore, in step S202, the determination function 184 does not perform the second derivation process in which multiple types of derivation processes are determined from among the multiple types of derivation processes (the first derivation process and the second derivation process). A first derivation process (first discrimination process) that performs one type of discrimination as to whether or not a characteristic region is included in an ultrasound image is selected.
そして、ステップS203では、判別機能184は、選択された第1の導出処理を実行する。また、ステップS203では、制御機能181は、選択された第1のフレームレートで各種の処理を行うように、送信回路110、受信回路120、Bモード処理回路130、ドプラ処理回路140、画像生成回路150、取得機能183、判別機能184、マーカ情報生成機能185及び表示制御機能186を制御する。
Then, in step S203, the determination function 184 executes the selected first derivation process. In step S203, the control function 181 controls the transmitting circuit 110, the receiving circuit 120, the B-
また、ステップS203では、マーカ情報生成機能185は、第1の導出処理により導出された第1の判別結果17(図4参照)に基づいて、超音波画像の検出結果を示すマーカ情報を生成する。例えば、マーカ情報生成機能185は、ステップS203で、第1の導出処理により第1の判別結果17が導出される度に、導出された第1の判別結果17に応じてマーカ情報を生成する。
Further, in step S203, the marker
例えば、マーカ情報生成機能185は、第1の判別結果17が、超音波画像に特徴部位が含まれることを示す場合には、マーカ情報生成機能185は、特徴部位として検出された範囲を表す矩形のマーカを示すマーカ情報を生成する。
For example, when the first discrimination result 17 indicates that a characteristic region is included in the ultrasound image, the marker
図13は、第1の実施形態に係るマーカ情報生成機能185が実行する処理の一例を説明するための図である。例えば、第1の判別結果17が、超音波画像に特徴部位が含まれることを示す場合には、マーカ情報生成機能185は、図13に示すように、特徴部位として検出された範囲を表す矩形のマーカ32を示すマーカ情報を生成する。なお、図13において、符号「31」は、実際の特徴部位を指す。
FIG. 13 is a diagram for explaining an example of a process executed by the marker
そして、マーカ情報生成機能185は、マーカ情報を生成する度に、図13に示すように、超音波画像に、マーカ情報により示されるマーカ32を重畳させる。そして、マーカ情報生成機能185は、マーカ32が重畳された超音波画像を示す超音波画像データを画像メモリ160に記憶させる。
Each time the marker
また、ステップS203において、表示制御機能186は、画像メモリ160に記憶された超音波画像データにより示される超音波画像をディスプレイ103に表示させる。超音波画像は、医用画像の一例である。表示制御機能186は、表示制御部の一例である。
Further, in step S203, the
例えば、表示制御機能186は、リアルタイムで、マーカ32が重畳された超音波画像をディスプレイ103に表示させる。例えば、表示制御機能186は、マーカ32が重畳された超音波画像を示す超音波画像データが、マーカ情報生成機能185により画像メモリ160に記憶される度に、超音波画像データを画像メモリ160から取得する。そして、表示制御機能186は、マーカ32が重畳された超音波画像を示す超音波画像データを取得する度に、マーカ32が重畳された超音波画像をディスプレイ103に表示させる。
For example, the
一方、第1の判別結果17が、超音波画像に特徴部位が含まれないことを示す場合には、マーカ情報生成機能185は、マーカ情報を生成しない。
On the other hand, when the first determination result 17 indicates that the ultrasound image does not include a characteristic region, the marker
ただし、表示制御機能186は、マーカ32が重畳されていない超音波画像についても、リアルタイムでディスプレイ103に表示させる。例えば、表示制御機能186は、第1の判別結果17が、超音波画像に特徴部位が含まれないことを示す場合、図14に例示する超音波画像をディスプレイ103に表示させる。なお、図14には、実際には特徴部位31が含まれるものの、第1の導出処理において特徴部位が検出されなかった超音波画像が示されている。図14は、第1の実施形態に係る表示例を示す図である。
However, the
ステップS203の処理が完了すると、超音波診断装置1は、図12に示す処理を終了する。
When the process of step S203 is completed, the ultrasound
一方、超音波プローブ101の移動速度が所定の閾値Th1以下であると判定された場合(ステップS201:No)には、判別機能184は、超音波プローブ101の移動速度が、所定の閾値Th2よりも小さいか否かを判定する(ステップS204)。ここで、閾値Th2は、閾値Th1よりも小さい。また、超音波プローブ101の移動速度が閾値Th2よりも小さい場合には、例えば、操作者は、既に特徴部位の存在を把握しており、特徴部位の詳細を把握したいと考えられる。閾値Th2は、第2の閾値の一例である。 On the other hand, if it is determined that the moving speed of the ultrasound probe 101 is less than or equal to the predetermined threshold Th1 (step S201: No), the determination function 184 determines that the moving speed of the ultrasound probe 101 is lower than the predetermined threshold Th2. It is determined whether or not the value is also smaller (step S204). Here, the threshold Th2 is smaller than the threshold Th1. Further, if the moving speed of the ultrasound probe 101 is smaller than the threshold value Th2, for example, it is considered that the operator already knows the existence of the characteristic region and wants to understand the details of the characteristic region. The threshold Th2 is an example of a second threshold.
超音波プローブ101の移動速度が、閾値Th2よりも小さいと判定された場合(ステップS204:Yes)、ステップS205において、判別機能184は、以下に説明する処理を行う。 If it is determined that the moving speed of the ultrasound probe 101 is smaller than the threshold Th2 (step S204: Yes), the determination function 184 performs the process described below in step S205.
例えば、ステップS205において、判別機能184は、第1のフレームレート及び第2のフレームレートの中から、判別結果を導出する際のフレームレートとして、第2のフレームレートを選択する。 For example, in step S205, the determination function 184 selects the second frame rate from the first frame rate and the second frame rate as the frame rate for deriving the determination result.
また、例えば、ステップS205において、判別機能184は、第1の導出処理及び第2の導出処理の中から、判別結果を導出する際の導出処理として、第2の導出処理を選択する。 Further, for example, in step S205, the determination function 184 selects the second derivation process from the first derivation process and the second derivation process as the derivation process when deriving the determination result.
ここで、第2の導出処理は、第1の判別結果17、第2の判別結果23(図5参照)及び第3の判別結果29(図6参照)を導出する。このため、第2の導出処理は、第1の導出処理よりも多くの判別結果を導出する。このように、第2の導出処理は、第1の導出処理に比べて処理負荷が高い。このため、第2の導出処理を実行する場合には、フレームレートを低くすることが好ましい。したがって、上述したように、判別機能184は、ステップS205において、第1のフレームレート及び第2のフレームレートの中から、比較的低い第2のフレームレートを選択する。 Here, the second derivation process derives the first determination result 17, the second determination result 23 (see FIG. 5), and the third determination result 29 (see FIG. 6). Therefore, the second derivation process derives more determination results than the first derivation process. In this way, the second derivation process has a higher processing load than the first derivation process. Therefore, when executing the second derivation process, it is preferable to lower the frame rate. Therefore, as described above, the determination function 184 selects the relatively low second frame rate from the first frame rate and the second frame rate in step S205.
また、操作者が、特徴部位の詳細を把握したいと考えられるため、ステップS205では、判別機能184は、複数の種類の導出処理の中から、第1の導出処理よりも多くの判別結果を導出する第2の導出処理を選択する。 Furthermore, since the operator is likely to want to grasp the details of the characteristic parts, in step S205, the discrimination function 184 derives more discrimination results than the first derivation process from among the plurality of types of derivation processes. Select the second derivation process.
そして、ステップS206では、判別機能184は、選択された第2の導出処理に含まれる第1の検出処理(運用時の1段階目の処理)を実行し、第1の判別結果17を導出する。 Then, in step S206, the determination function 184 executes the first detection process (the first stage process during operation) included in the selected second derivation process, and derives the first determination result 17. .
また、ステップS206では、マーカ情報生成機能185は、ステップS203での処理と同様の処理を行う。また、ステップS206では、表示制御機能186は、ステップS203での処理と同様の処理を行う。
Furthermore, in step S206, the marker
なお、ステップS206、並びに、以下で説明するステップS207及びS208では、制御機能181は、選択された第2のフレームレートで各種の処理を行うように、送信回路110、受信回路120、Bモード処理回路130、ドプラ処理回路140、画像生成回路150、取得機能183、判別機能184、マーカ情報生成機能185及び表示制御機能186を制御する。すなわち、制御機能181は、ステップS206~S208での各処理が、第2のフレームレートで行われるように制御する。
Note that in step S206 and steps S207 and S208 described below, the control function 181 controls the transmitting circuit 110, receiving circuit 120, and B-mode processing so as to perform various processes at the selected second frame rate. It controls the
そして、ステップS207では、判別機能184は、選択された第2の導出処理に含まれる第2の判別処理(運用時の2段階目の処理)を実行し、第2の判別結果23を導出する。 Then, in step S207, the determination function 184 executes the second determination process (second-stage process during operation) included in the selected second derivation process, and derives the second determination result 23. .
ステップS207では、マーカ情報生成機能185は、導出された第2の判別結果23に応じて、文字列「悪性」又は文字列「良性」を生成する。例えば、マーカ情報生成機能185は、第2の判別結果23が、特徴部位が悪性であることを示す場合には、文字列「悪性」を生成する。また、マーカ情報生成機能185は、第2の判別結果23が、特徴部位が良性であることを示す場合には、文字列「良性」を生成する。マーカ情報生成機能185は、第2の判別結果23が導出される度に、文字列「悪性」又は文字列「良性」を生成する。
In step S207, the marker
そして、ステップS207では、表示制御機能186は、文字列「悪性」又は文字列「良性」が生成される度に、生成された文字列「悪性」又は文字列「良性」を超音波画像に重畳させてディスプレイ103に表示させる。
Then, in step S207, the
なお、マーカ情報生成機能185は、文字列「悪性」又は文字列「良性」を生成する度に、記憶回路170に記憶されている被検体Pのレポート情報に、生成された文字列「悪性」又は文字列「良性」を自動的に登録してもよい。例えば、レポート情報は、被検体Pの超音波画像診断の結果の履歴等が、医師等の操作者により入力インターフェース190を介して登録される情報である。そして、操作者は、必要に応じて、レポート情報が示すレポート画面をディスプレイ103に表示させて、レポート画面が示す超音波画像診断の結果の履歴を確認する。本実施形態では、マーカ情報生成機能185が、被検体Pのレポート情報に、自動的に、特徴部位が悪性であるか良性であるかの判別結果を登録することで、操作者が手動で判別結果をレポ-ト情報に登録しなくて済む。このため、本実施形態によれば、判別結果をレポート情報に登録する際の操作者の負担を抑制することができる。なお、マーカ情報生成機能185は、文字列「悪性」及び文字列「良性」に代えて、第2の判別結果23を自動的にレポート情報に登録してもよい。
Note that each time the marker
そして、ステップS208では、判別機能184は、選択された第2の導出処理に含まれる第3の判別処理(運用時の3段階目の処理)を実行し、第3の判別結果29を導出する。
Then, in step S208, the determination function 184 executes the third determination process (the third stage process during operation) included in the selected second derivation process, and derives the
ステップS208では、マーカ情報生成機能185は、導出された第3の判別結果29に応じて、文字列「悪性度A」又は文字列「悪性度B」を生成する。例えば、マーカ情報生成機能185は、第3の判別結果29が、特徴部位の悪性度が悪性度Aであることを示す場合には、文字列「悪性度A」を生成する。また、マーカ情報生成機能185は、第3の判別結果29が、特徴部位の悪性度が悪性度Bであることを示す場合には、文字列「悪性度B」を生成する。マーカ情報生成機能185は、第3の判別結果29が導出される度に、文字列「悪性度A」又は文字列「悪性度B」を生成する。
In step S208, the marker
そして、ステップS208では、表示制御機能186は、文字列「悪性度A」又は文字列「悪性度B」が生成される度に、生成された文字列「悪性度A」又は文字列「悪性度B」を超音波画像に重畳させてディスプレイ103に表示させる。
Then, in step S208, the
なお、マーカ情報生成機能185は、文字列「悪性度A」又は文字列「悪性度B」を生成する度に、記憶回路170に記憶されている被検体Pのレポート情報に、生成された文字列「悪性度A」又は文字列「悪性度B」を自動的に登録してもよい。本実施形態では、マーカ情報生成機能185が、被検体Pのレポート情報に、自動的に、特徴部位の悪性度の判別結果を登録することで、操作者が手動で判別結果をレポ-ト情報に登録しなくて済む。このため、本実施形態によれば、判別結果をレポート情報に登録する際の操作者の負担を抑制することができる。なお、マーカ情報生成機能185は、文字列「悪性度A」及び文字列「悪性度B」に代えて、第3の判別結果29を自動的にレポート情報に登録してもよい。
Note that each time the marker
ステップS208の処理が完了すると、超音波診断装置1は、図12に示す処理を終了する。
When the process of step S208 is completed, the ultrasonic
一方、超音波プローブ101の移動速度が、閾値Th2以上であると判定された場合(ステップS204:No)には、ステップS209で、超音波診断装置1は、以下に説明する処理を行う。
On the other hand, if it is determined that the moving speed of the ultrasound probe 101 is equal to or higher than the threshold Th2 (step S204: No), the ultrasound
例えば、ステップS209で、超音波診断装置1は、ステップS203の処理と同様の処理を実行する。ただし、ステップS209では、制御機能181は、所定のフレームレートで各種の処理を行うように、送信回路110、受信回路120、Bモード処理回路130、ドプラ処理回路140、画像生成回路150、取得機能183、判別機能184、マーカ情報生成機能185及び表示制御機能186を制御する。かかる所定のフレームレートは、第1のフレームレート及び第2のフレームレート以外のフレームレートであってもよいし、第1のフレームレート又は第2のフレームレートであってもよい。
For example, in step S209, the ultrasound
ステップS209の処理が完了すると、超音波診断装置1は、図12に示す処理を終了する。
When the process of step S209 is completed, the ultrasonic
図12に示す処理では、判別機能184は、超音波プローブ101の移動速度に応じて、複数の超音波画像データの複数の種類のフレームレートの中から、判別結果を導出する際のフレームレートを選択する処理を実行する。このようなフレームレートを選択する処理は、第1の選択処理の一例である。 In the process shown in FIG. 12, the discrimination function 184 selects a frame rate for deriving a discrimination result from among a plurality of types of frame rates of a plurality of ultrasound image data according to the moving speed of the ultrasound probe 101. Execute the selected process. The process of selecting such a frame rate is an example of the first selection process.
また、図12に示す処理では、判別機能184は、超音波プローブ101の移動速度に応じて、判別結果を導出するための複数の種類の導出処理の中から、判別結果を導出する際の導出処理を選択する処理を実行する。このような導出処理を選択する処理は、第2の選択処理の一例である。例えば、図12に示す処理では、判別機能184は、複数の学習済みモデル及び複数の学習条件のうち、超音波プローブ101の移動速度に応じた少なくとも1つの学習済みモデル及び少なくとも1つの学習条件を用いて、この学習済みモデル及び学習条件に対応する判別処理を実行することにより、被検体Pの特徴部位に関する判別結果を導出する。 In addition, in the process shown in FIG. 12, the discrimination function 184 performs a derivation process for deriving a discrimination result from among a plurality of types of derivation processes for deriving a discrimination result according to the moving speed of the ultrasound probe 101. Execute the process that selects the process. The process of selecting such a derivation process is an example of the second selection process. For example, in the process shown in FIG. 12, the determination function 184 selects at least one learned model and at least one learning condition according to the moving speed of the ultrasound probe 101, out of the plurality of learned models and the plurality of learning conditions. By using the learned model and performing a discrimination process corresponding to the learning conditions, a discrimination result regarding the characteristic part of the subject P is derived.
したがって、第1の実施形態に係る超音波診断装置1によれば、超音波プローブ101の移動速度に応じて適切な処理を行うことができる。
Therefore, according to the ultrasound
以上、第1の実施形態に係る超音波診断装置1について説明した。第1の実施形態に係る超音波診断装置1によれば、上述したように、特徴部位に関する判別結果を精度よく得ることができる。また、第1の実施形態に係る超音波診断装置1によれば、上述したように、超音波プローブ101の移動速度に応じて適切な処理を行うことができる。
The ultrasonic
(第2の実施形態)
なお、上述した第1の実施形態では、学習済みモデル生成装置200の学習済みモデル生成機能201aが、各種の学習済みモデルを生成し、各種の学習条件を記録する場合について説明した。しかしながら、超音波診断装置1が、各種の学習済みモデルを生成し、各種の学習条件を記録してもよい。そこで、このような実施形態を第2の実施形態として説明する。なお、第2の実施形態の説明では、第1の実施形態と異なる点を主に説明し、第1の実施形態と同様の構成及び処理については説明を省略する場合がある。
(Second embodiment)
In the first embodiment described above, the learned
図15は、第2の実施形態に係る超音波診断装置1の構成例を示す図である。第2の実施形態では、処理回路180が、学習済みモデル生成機能187を有する点が、第1の実施形態と異なる。
FIG. 15 is a diagram showing a configuration example of an ultrasound
上述した第1の実施形態では、学習済みモデル生成機能201aが、超音波診断装置1又は他の超音波診断装置により生成された超音波画像データを用いて、各種の学習済みモデルを生成し、各種の学習条件を記録する。
In the first embodiment described above, the learned
一方、学習済みモデル生成機能187は、画像生成回路150により生成された超音波画像データ(例えばBモード画像データ)を用いて、学習済みモデル生成機能201aと同様に、各種の学習済みモデルを生成し、各種の学習条件を記録する。学習済みモデル生成機能187は、生成部の一例である。
On the other hand, the learned model generation function 187 uses the ultrasound image data (for example, B-mode image data) generated by the
具体的には、学習済みモデル生成機能187は、第1の学習済みモデル11a、第2の学習済みモデル12a及び第3の学習済みモデル13aを生成する。また、学習済みモデル生成機能187は、第1の学習条件11b、第2の学習条件12b及び第3の学習条件13bを記憶回路170に記録する。すなわち、学習済みモデル生成機能187は、超音波画像データと、超音波画像データに描出される特徴部位に関する判別結果(ラベル)とを対応付けて学習することにより、入力された超音波画像データに描出される被検体の特徴部位に関する判別結果を出力する判別処理を実行する際に用いられる学習済みモデルを生成し、学習条件を記録する。学習済みモデル生成機能187は、学習時の複数の段階(上述した学習時の1段階目~3段階目)のそれぞれにおいて、学習済みモデルを生成し、学習条件を記録する。
Specifically, the trained model generation function 187 generates a first trained
ここで、学習済みモデル生成機能187は、学習済みモデル生成機能201aと同様に、非同期で、第1の学習済みモデル11aと、第2の学習済みモデル12aと、第3の学習済みモデル13aとを生成する。また、学習済みモデル生成機能187は、非同期で、第1の学習条件11bと、第2の学習条件12bと、第3の学習条件13bとを記録する。
Here, similarly to the trained
そして、学習済みモデル生成機能187は、第1の学習済みモデル11a、第2の学習済みモデル12a及び第3の学習済みモデル13aを記憶回路170に記憶させる。また、学習済みモデル生成機能187は、第1の学習条件11b、第2の学習条件12b及び第3の学習条件13bを記憶回路170に記憶させる。
The trained model generation function 187 then stores the first trained
そして、第2の実施形態では、判別機能184は、記憶回路170に記憶された各種の学習済みモデル及び各種の学習条件を用いて、第1の実施形態と同様の処理を実行する。
In the second embodiment, the determination function 184 executes the same process as in the first embodiment using various learned models and various learning conditions stored in the
以上、第2の実施形態について説明した。第2の実施形態によれば、第1の実施形態と同様に、特徴部位に関する判別結果を精度よく得ることができる。また、第2の実施形態によれば、第1の実施形態と同様に、超音波プローブ101の移動速度に応じて適切な処理を行うことができる。 The second embodiment has been described above. According to the second embodiment, similarly to the first embodiment, it is possible to obtain the determination results regarding the characteristic parts with high accuracy. Furthermore, according to the second embodiment, similar to the first embodiment, appropriate processing can be performed depending on the moving speed of the ultrasound probe 101.
なお、第2の実施形態において、学習済みモデル生成機能187は、非同期ではなく、同期をとって、第1の学習済みモデル11aと、第2の学習済みモデル12aと、第3の学習済みモデル13aとを生成してもよい。同様に、学習済みモデル生成機能187は、非同期ではなく、同期をとって、第1の学習条件11bと、第2の学習条件12bと、第3の学習条件13bとを記録してもよい。
Note that in the second embodiment, the trained model generation function 187 generates the first trained
例えば、まず、学習済みモデル生成機能187は、第1の学習済みモデル11aを生成し、第1の学習条件11bを記録する。そして、第1の学習済みモデル11aを生成し、第1の学習条件11bを記録した後に、判別機能184は、第1の学習済みモデル11a及び第1の学習条件11bを用いて、第1の判別処理を実行する。そして、学習済みモデル生成機能187は、第1の判別処理において特徴部位が含まれると判別された超音波画像データを学習用データの一部として用いて、第2の学習済みモデル12aを生成し、第2の学習条件12bを記録する。これにより、第2の学習済みモデル12aを生成する際に用いられる学習用データの一部を操作者が用意することなく自動的に用意することが可能となる。
For example, first, the trained model generation function 187 generates the first trained
このような場合の第2の学習済みモデル12aの生成方法の一例について図16を参照して説明する。図16は、第2の実施形態に係る第2の学習済みモデル12aを生成する処理の一例の流れを示すフローチャートである。
An example of a method for generating the second trained
図16に例示するように、学習済みモデル生成機能187は、特徴部位が描出された超音波画像データ及び第2のラベル21が入力されたか否かを判定する(ステップS301)。ここで、ステップS301で、入力されたか否かの判定の対象となる超音波画像データの一例について説明する。例えば、判定の対象となる超音波画像データは、第1の判別処理において特徴部位が含まれると判別された超音波画像データであり、操作者の目視により、特徴部位が含まれることが確認された超音波画像データである。操作者は、このような超音波画像データを第2のラベル21とともに、入力装置102を介して、装置本体100に入力する。
As illustrated in FIG. 16, the trained model generation function 187 determines whether or not the ultrasound image data in which the characteristic region is depicted and the second label 21 have been input (step S301). Here, an example of ultrasound image data to be determined in step S301 as to whether or not it has been input will be described. For example, the ultrasound image data to be determined is the ultrasound image data that was determined to include a characteristic region in the first discrimination process, and it has been confirmed by the operator's visual inspection that the characteristic region is included. This is ultrasound image data. The operator inputs such ultrasound image data together with the second label 21 into the apparatus main body 100 via the
超音波画像データ及び第2のラベル21が入力されていないと判定した場合(ステップS301:No)には、学習済みモデル生成機能187は、再びステップS301の判定を行う。一方、超音波画像データ及び第2のラベル21が入力されたと判定した場合(ステップS301:Yes)には、学習済みモデル生成機能187は、入力された超音波画像データ及び第2のラベル21を用いて、第2の学習済みモデル12aを生成し、第2の学習条件12bを記録する(ステップS302)。そして、学習済みモデル生成機能187は、図16に示す処理を終了する。
If it is determined that the ultrasound image data and the second label 21 have not been input (step S301: No), the learned model generation function 187 performs the determination in step S301 again. On the other hand, if it is determined that the ultrasound image data and the second label 21 have been input (step S301: Yes), the trained model generation function 187 input the ultrasound image data and the second label 21. The second learned
そして、第2の学習済みモデル12aが生成され、第2の学習条件12bが記録された後に、判別機能184は、第2の学習済みモデル12aと、第2の学習条件12bとを用いて、第2の判別処理を実行する。そして、学習済みモデル生成機能187は、第2の判別処理において悪性であると判別された特徴部位が描出された超音波画像データを学習用データの一部として用いて、第3の学習済みモデル13aを生成する。これにより、第3の学習済みモデル13aを生成する際に用いられる学習用データの一部を操作者が用意することなく自動的に用意することが可能となる。
Then, after the second trained
このような場合の第3の学習済みモデル13aの生成方法の一例について図17を参照して説明する。図17は、第2の実施形態に係る第3の学習済みモデル13aを生成する処理の一例の流れを示すフローチャートである。 An example of a method for generating the third learned model 13a in such a case will be described with reference to FIG. 17. FIG. 17 is a flowchart illustrating an example of a process for generating the third learned model 13a according to the second embodiment.
図17に例示するように、学習済みモデル生成機能187は、第2の判別処理において悪性であると判別された特徴部位が描出された超音波画像データ、及び、第3のラベル27が入力されたか否かを判定する(ステップS401)。ここで、ステップS401で、入力されたか否かの判定の対象となる超音波画像データの一例について説明する。例えば、判定の対象となる超音波画像データは、第2の判別処理において悪性であると判別された特徴部位が描出された超音波画像データであり、操作者の目視により、特徴部位が悪性であることが確認された超音波画像データである。操作者は、このような超音波画像データを第3のラベル27とともに、入力装置102を介して、装置本体100に入力する。
As illustrated in FIG. 17, the trained model generation function 187 receives ultrasound image data depicting a characteristic region determined to be malignant in the second discrimination process and a
超音波画像データ及び第3のラベル27が入力されていないと判定した場合(ステップS401:No)には、学習済みモデル生成機能187は、再びステップS401の判定を行う。一方、超音波画像データ及び第3のラベル27が入力されたと判定した場合(ステップS401:Yes)には、学習済みモデル生成機能187は、入力された超音波画像データ及び第3のラベル27を用いて、第3の学習済みモデル13aを生成し、第3の学習条件13bを記録する(ステップS402)。そして、学習済みモデル生成機能187は、図17に示す処理を終了する。
If it is determined that the ultrasound image data and the
以上、学習済みモデルの他の生成方法について説明した。学習済みモデルの他の生成方法では、学習済みモデル生成機能187は、複数の段階のうち、一の段階に対応する判別処理から出力された所定の判別結果に対応する超音波画像データと、一の段階の次の段階に対応する判別結果(ラベル)とを対応付けて学習することにより、一の段階の次の段階に対応する学習済みモデルを生成する。したがって、学習済みモデルの他の生成方法によれば、学習用データを簡易に用意することができる。 Other methods of generating trained models have been described above. In another method for generating a trained model, the trained model generation function 187 combines ultrasonic image data corresponding to a predetermined discrimination result output from a discrimination process corresponding to one stage among a plurality of stages; A trained model corresponding to the next step after the first step is generated by learning in association with the discrimination result (label) corresponding to the next step after the first step. Therefore, according to another method of generating a trained model, training data can be easily prepared.
(第1の実施形態及び第2の実施形態の変形例1)
上述した第1の実施形態及び第2の実施形態では、判別機能184が、超音波プローブ101の移動速度に応じて、複数の種類の導出処理の中から、判別結果を導出する際の導出処理を選択する場合について説明した。しかしながら、判別機能184は、リアルタイムで判別結果を導出するのか、又は、後処理として判別結果を導出するのかに応じて、判別結果を導出する際の導出処理を選択してもよい。そこで、このような実施形態を、第1の実施形態及び第2の実施形態の変形例1として説明する。なお、変形例1の説明では、第1の実施形態及び第2の実施形態と異なる点を主に説明し、第1の実施形態及び第2の実施形態と同様の構成及び処理については説明を省略する場合がある。
(
In the first and second embodiments described above, the determination function 184 performs a derivation process when deriving a determination result from among a plurality of types of derivation processes according to the moving speed of the ultrasound probe 101. We have explained the case of selecting . However, the determination function 184 may select the derivation process when deriving the determination result depending on whether the determination result is derived in real time or as a post-process. Therefore, such an embodiment will be described as a first modification of the first embodiment and the second embodiment. In addition, in the explanation of
例えば、変形例1では、超音波診断装置1には、入力装置102を介して、操作者から、超音波走査に対してリアルタイムで判別結果を導出するための指示(リアルタイム処理指示)が入力される。また、変形例1では、入力装置102を介して、操作者から、超音波走査よりも後に実行される後処理(ポスト処理)として判別結果を導出するための指示(後処理指示)が入力される。
For example, in
変形例1に係る超音波診断装置1は、リアルタイム処理指示が入力された場合には、先の図12に示すステップS202及びステップS203の処理と同様の処理を実行する。
When the real-time processing instruction is input, the ultrasound
また、超音波診断装置1は、後処理指示が入力された場合には、リアルタイムではなく、記憶回路170に記憶された複数の超音波画像データに対して、後処理として、先の図12に示すステップS205~ステップS208の処理と同様の処理を実行する。
Further, when a post-processing instruction is input, the ultrasound
したがって、第1の実施形態及び第2の実施形態の変形例1に係る超音波診断装置1によれば、リアルタイムで判別結果を導出するのか、又は、後処理として判別結果を導出するのかに応じて、適切な処理を行うことができる。また、変形例1に係る超音波診断装置1によれば、第1の実施形態及び第2の実施形態と同様に、特徴部位に関する判別結果を精度よく得ることができる。
Therefore, according to the ultrasonic
(第1の実施形態及び第2の実施形態の変形例2)
上述した第1の実施形態及び第2の実施形態では、判別機能184が、超音波プローブ101の移動速度に応じて、運用時の1段階目の処理を行うのか、又は、運用時の1段階目~3段階目の処理を行うのかを選択する場合について説明した。
(Modification 2 of the first embodiment and the second embodiment)
In the first and second embodiments described above, the determination function 184 determines whether to perform the first stage of operation or the first stage of operation depending on the moving speed of the ultrasound probe 101. The case where the user selects whether to perform the processing in steps 3 to 3 has been explained.
しかしながら、判別機能184は、超音波プローブ101の移動速度に応じて、図7に示す第1の検出処理を行うのか、又は、図7に示す第1の検出処理及び第2の検出処理を行うのかを選択してもよい。そこで、このような実施形態を、第1の実施形態及び第2の実施形態の変形例2として説明する。なお、変形例2の説明では、第1の実施形態及び第2の実施形態と異なる点を主に説明し、第1の実施形態及び第2の実施形態と同様の構成及び処理については説明を省略する場合がある。 However, the determination function 184 performs the first detection process shown in FIG. 7 or the first detection process and the second detection process shown in FIG. 7 depending on the moving speed of the ultrasound probe 101. You may choose either. Therefore, such an embodiment will be described as a second modification of the first embodiment and the second embodiment. In addition, in the description of the second modification, the points that are different from the first embodiment and the second embodiment will be mainly explained, and the same configuration and processing as the first embodiment and the second embodiment will not be explained. May be omitted.
図18は、第1の実施形態及び第2の実施形態の変形例2に係る超音波診断装置1が実行する処理の一例の流れを示すフローチャートである。例えば、超音波診断装置1は、図18に示す処理を、所定の時間間隔で実行する。
FIG. 18 is a flowchart showing an example of a process executed by the ultrasound
図18に示すように、判別機能184は、超音波プローブ101の移動速度が所定の閾値Th1よりも大きいか否かを判定する(ステップS501)。ステップS501では、速度検出機能182が、超音波プローブ101の移動速度を検出する。そして、ステップS501では、判別機能184は、速度検出機能182により検出された超音波プローブ101の移動速度が閾値Th1よりも大きいか否かを判定する。
As shown in FIG. 18, the determination function 184 determines whether the moving speed of the ultrasound probe 101 is greater than a predetermined threshold Th1 (step S501). In step S501, the
超音波プローブ101の移動速度が所定の閾値Th1よりも大きいと判定された場合(ステップS501:Yes)には、ステップS502において、判別機能184は、以下に説明する処理を行う。 If it is determined that the moving speed of the ultrasound probe 101 is greater than the predetermined threshold Th1 (step S501: Yes), the determination function 184 performs the process described below in step S502.
例えば、ステップS502において、判別機能184は、第1のフレームレート及び第2のフレームレートの中から、判別結果を導出する際のフレームレートとして、第1のフレームレートを選択する。 For example, in step S502, the determination function 184 selects the first frame rate from the first frame rate and the second frame rate as the frame rate for deriving the determination result.
また、例えば、ステップS502において、判別機能184は、第1の導出処理及び第3の導出処理の中から、判別結果を導出する際の導出処理として、第1の導出処理を選択する。ここで、変形例2に係る第1の導出処理は、先の図7に示す第1の検出処理である。また、変形例2に係る第3の導出処理は、先の図7に示す第1の検出処理及び第2の検出処理である。 Further, for example, in step S502, the determination function 184 selects the first derivation process from the first derivation process and the third derivation process as the derivation process when deriving the determination result. Here, the first derivation process according to the second modification is the first detection process shown in FIG. 7 above. Further, the third derivation process according to the second modification is the first detection process and the second detection process shown in FIG. 7 above.
上述したように、第2の検出処理では、第1の検出処理において検出された特徴部位の中から、第1の検出処理において過検出を除く特徴部位を、最終的に、特徴部位として検出する。このため、変形例2において、第3の導出処理は、第1の導出処理よりも、超音波画像に特徴部位が含まれるか否かを判別した結果である第1の判別結果を精度良く導出することが可能である。一方で、第1の導出処理は、第3の導出処理に比べて処理負荷が低い。 As described above, in the second detection process, from among the characteristic parts detected in the first detection process, characteristic parts excluding overdetections in the first detection process are finally detected as characteristic parts. . Therefore, in Modification 2, the third derivation process derives the first discrimination result, which is the result of determining whether or not the ultrasound image includes a characteristic region, with higher accuracy than the first derivation process. It is possible to do so. On the other hand, the first derivation process has a lower processing load than the third derivation process.
ステップS501で肯定判定(ステップS501:Yes)された場合には、第1の判別結果の精度が良好なことよりもフレームレートが高いことが優先されると考えられる。そこで、ステップS502では、判別機能184は、複数の種類の導出処理の中から、比較的小さい処理負荷で、超音波画像に特徴部位が含まれるか否かの判別を行う第1の導出処理を選択する。 If an affirmative determination is made in step S501 (step S501: Yes), it is considered that a high frame rate is prioritized over a high accuracy of the first determination result. Therefore, in step S502, the determination function 184 selects a first derivation process from among the plurality of types of derivation processes that determines whether or not the ultrasound image includes a characteristic region with a relatively small processing load. select.
また、判別機能184は、第1の導出処理を実行する場合には、フレームレートを高くすることができる。したがって、上述したように、判別機能184は、ステップS502において、複数の種類のフレームレートの中から、比較的高い第1のフレームレートを選択する。 Further, the determination function 184 can increase the frame rate when executing the first derivation process. Therefore, as described above, the determination function 184 selects a relatively high first frame rate from among the plurality of types of frame rates in step S502.
そして、ステップS503では、判別機能184は、選択された第1の導出処理(第1の検出処理)を実行する。また、ステップS503では、制御機能181は、選択された第1のフレームレートで各種の処理を行うように、送信回路110、受信回路120、Bモード処理回路130、ドプラ処理回路140、画像生成回路150、取得機能183、判別機能184、マーカ情報生成機能185及び表示制御機能186を制御する。
Then, in step S503, the determination function 184 executes the selected first derivation process (first detection process). Further, in step S503, the control function 181 controls the transmitting circuit 110, the receiving circuit 120, the B-
また、ステップS503では、マーカ情報生成機能185は、第1の検出処理により検出された特徴部位に基づいて、超音波画像の検出結果を示すマーカ情報を生成する。例えば、マーカ情報生成機能185は、ステップS503で、第1の検出処理により特徴部位が検出される度に、第1の実施形態と同様に、特徴部位として検出された範囲を表す矩形のマーカを示すマーカ情報を生成する。
Further, in step S503, the marker
そして、マーカ情報生成機能185は、第1の実施形態と同様に、マーカ情報を生成する度に、超音波画像に、マーカ情報により示されるマーカを重畳させる。そして、マーカ情報生成機能185は、第1の実施形態と同様に、マーカが重畳された超音波画像を示す超音波画像データを画像メモリ160に記憶させる。
Then, similarly to the first embodiment, the marker
また、ステップS503において、表示制御機能186は、第1の実施形態と同様に、画像メモリ160に記憶された表示用の超音波画像データにより示される超音波画像をディスプレイ103に表示させる。すなわち、ステップS503では、マーカが重畳された超音波画像、及び、マーカが重畳されていない超音波画像が、リアルタイムでディスプレイ103に表示される。
Further, in step S503, the
ステップS503の処理が完了すると、超音波診断装置1は、図18に示す処理を終了する。
When the process of step S503 is completed, the ultrasound
一方、超音波プローブ101の移動速度が所定の閾値Th1以下であると判定された場合(ステップS501:No)には、判別機能184は、超音波プローブ101の移動速度が、所定の閾値Th2よりも小さいか否かを判定する(ステップS504)。 On the other hand, if it is determined that the moving speed of the ultrasound probe 101 is less than or equal to the predetermined threshold Th1 (step S501: No), the determination function 184 determines that the moving speed of the ultrasound probe 101 is lower than the predetermined threshold Th2. It is determined whether or not the value is also smaller (step S504).
超音波プローブ101の移動速度が、閾値Th2よりも小さいと判定された場合(ステップS504:Yes)、ステップS505において、判別機能184は、以下に説明する処理を行う。 If it is determined that the moving speed of the ultrasound probe 101 is smaller than the threshold Th2 (step S504: Yes), in step S505, the determination function 184 performs the process described below.
ステップS504で肯定判定(ステップS504:Yes)された場合には、フレームレートが高いことよりも、第1の判別結果の精度が良好であることが優先されると考えられる。ここで、第3の導出処理は、第1の導出処理よりも、超音波画像に特徴部位が含まれるか否かを判別した結果である第1の判別結果を精度良く導出することが可能である。そこで、ステップS505において、判別機能184は、第1の導出処理及び第3の導出処理の中から、判別結果を導出する際の導出処理として、第3の導出処理を選択する。 If an affirmative determination is made in step S504 (step S504: Yes), it is considered that the accuracy of the first determination result is prioritized over a high frame rate. Here, the third derivation process is able to more accurately derive the first discrimination result, which is the result of determining whether or not the ultrasound image includes a characteristic region, than the first derivation process. be. Therefore, in step S505, the determination function 184 selects the third derivation process from the first derivation process and the third derivation process as the derivation process when deriving the determination result.
また、第3の導出処理は、第1の導出処理に比べて処理負荷が高い。このため、第3の導出処理を実行する場合には、フレームレートを低くすることが好ましい。そこで、ステップS505において、判別機能184は、第1のフレームレート及び第2のフレームレートの中から、判別結果を導出する際のフレームレートとして、第2のフレームレートを選択する。 Furthermore, the third derivation process has a higher processing load than the first derivation process. Therefore, when executing the third derivation process, it is preferable to lower the frame rate. Therefore, in step S505, the determination function 184 selects the second frame rate from the first frame rate and the second frame rate as the frame rate for deriving the determination result.
そして、ステップS506では、判別機能184は、選択された第3の導出処理に含まれる第1の検出処理を実行する。 Then, in step S506, the determination function 184 executes the first detection process included in the selected third derivation process.
なお、ステップS506、及び、以下で説明するS507では、制御機能181は、選択された第2のフレームレートで各種の処理を行うように、送信回路110、受信回路120、Bモード処理回路130、ドプラ処理回路140、画像生成回路150、取得機能183、判別機能184、マーカ情報生成機能185及び表示制御機能186を制御する。すなわち、制御機能181は、ステップS506,S507での各処理が、第2のフレームレートで行われるように制御する。
Note that in step S506 and S507 described below, the control function 181 controls the transmitting circuit 110, receiving circuit 120, B-
そして、ステップS507では、判別機能184は、選択された第3の導出処理に含まれる第2の検出処理を実行し、最終的に、特徴部位を検出する。 Then, in step S507, the determination function 184 executes the second detection process included in the selected third derivation process, and finally detects the characteristic part.
また、ステップS507では、マーカ情報生成機能185は、第2の検出処理により最終的に検出された特徴部位に基づいて、超音波画像の検出結果を示すマーカ情報を生成する。例えば、マーカ情報生成機能185は、ステップS507で、第2の検出処理により特徴部位が最終的に検出される度に、第1の実施形態と同様に、特徴部位として検出された範囲を表す矩形のマーカを示すマーカ情報を生成する。
Further, in step S507, the marker
そして、マーカ情報生成機能185は、第1の実施形態と同様に、マーカ情報を生成する度に、超音波画像に、マーカ情報により示されるマーカを重畳させる。そして、マーカ情報生成機能185は、第1の実施形態と同様に、マーカが重畳された超音波画像を示す超音波画像データを画像メモリ160に記憶させる。
Then, similarly to the first embodiment, the marker
また、ステップS507において、表示制御機能186は、第1の実施形態と同様に、画像メモリ160に記憶された表示用の超音波画像データにより示される超音波画像をディスプレイ103に表示させる。すなわち、ステップS507では、マーカが重畳された超音波画像、及び、マーカが重畳されていない超音波画像が、リアルタイムでディスプレイ103に表示される。
Further, in step S507, the
ステップS507の処理が完了すると、超音波診断装置1は、図18に示す処理を終了する。
When the process of step S507 is completed, the ultrasonic
一方、超音波プローブ101の移動速度が、閾値Th2以上であると判定された場合(ステップS504:No)には、ステップS508で、超音波診断装置1は、以下に説明する処理を行う。
On the other hand, if it is determined that the moving speed of the ultrasound probe 101 is equal to or higher than the threshold Th2 (step S504: No), the ultrasound
例えば、ステップS508で、超音波診断装置1は、ステップS503の処理と同様の処理を実行する。ただし、制御機能181は、所定のフレームレートで各種の処理を行うように、送信回路110、受信回路120、Bモード処理回路130、ドプラ処理回路140、画像生成回路150、取得機能183、判別機能184、マーカ情報生成機能185及び表示制御機能186を制御する。かかる所定のフレームレートは、第1のフレームレート及び第2のフレームレート以外のフレームレートであってもよいし、第1のフレームレート又は第2のフレームレートであってもよい。
For example, in step S508, the ultrasound
ステップS508の処理が完了すると、超音波診断装置1は、図18に示す処理を終了する。
When the process of step S508 is completed, the ultrasonic
図18に示す処理では、判別機能184は、超音波プローブ101の移動速度に応じて、複数の超音波画像データの複数の種類のフレームレートの中から、判別結果を導出する際のフレームレートを選択する処理を実行する。 In the process shown in FIG. 18, the discrimination function 184 selects a frame rate for deriving a discrimination result from among a plurality of types of frame rates of a plurality of ultrasound image data according to the moving speed of the ultrasound probe 101. Execute the selected process.
また、図18に示す処理では、判別機能184は、超音波プローブ101の移動速度に応じて、判別結果を導出するための複数の種類の導出処理の中から、判別結果を導出する際の導出処理を選択する処理を実行する。 In addition, in the process shown in FIG. 18, the discrimination function 184 performs a derivation process for deriving a discrimination result from among a plurality of types of derivation processes for deriving a discrimination result according to the moving speed of the ultrasound probe 101. Execute the process that selects the process.
したがって、第1の実施形態及び第2の実施形態の変形例2に係る超音波診断装置1によれば、第1の実施形態及び第2の実施形態と同様に、超音波プローブ101の移動速度に応じて適切な処理を行うことができる。また、変形例2に係る超音波診断装置1によれば、第1の実施形態及び第2の実施形態と同様に、特徴部位に関する判別結果を精度よく得ることができる。
Therefore, according to the ultrasound
(第1の実施形態及び第2の実施形態の変形例3)
上述した第1の実施形態及び第2の実施形態では、判別機能184が、第1の検出処理及び第2の検出処理を実行する場合について説明した。しかしながら、判別機能184は、第1の検出処理及び第2の検出処理に代えて、別な処理を実行してもよい。そこで、このような実施形態を、第1の実施形態及び第2の実施形態の変形例3として説明する。
(Variation 3 of the first embodiment and the second embodiment)
In the first embodiment and second embodiment described above, the case where the determination function 184 executes the first detection process and the second detection process has been described. However, the determination function 184 may perform another process instead of the first detection process and the second detection process. Therefore, such an embodiment will be described as a third modification of the first embodiment and the second embodiment.
なお、変形例3の説明では、第1の実施形態及び第2の実施形態と異なる点を主に説明し、第1の実施形態及び第2の実施形態と同様の構成及び処理については説明を省略する場合がある。 In addition, in the explanation of Modification 3, the points that are different from the first embodiment and the second embodiment will be mainly explained, and the same configuration and processing as the first embodiment and the second embodiment will not be explained. May be omitted.
変形例3において、運用時の第1段階目において、判別機能184が第1の学習済みモデル11aを用いて実行する第1の判別処理の一例について説明する。図19は、第1の実施形態及び第2の実施形態の変形例3に係る第1の判別処理の一例の流れを示すフローチャートである。
In Modification 3, an example of the first discrimination process executed by the discrimination function 184 using the first trained
図19に示すように、判別機能184は、第1の判別処理において、第3の検出処理を実行する(ステップS601)とともに、第3の検出処理と並行して第4の検出処理を実行し(ステップS602)、第5の検出処理を実行する(ステップS603)。 As shown in FIG. 19, the discrimination function 184 executes the third detection process in the first discrimination process (step S601), and also executes the fourth detection process in parallel with the third detection process. (Step S602), and a fifth detection process is executed (Step S603).
まず、ステップS601で実行される第3の検出処理について説明する。判別機能184は、検索窓と第2の検索用学習済みモデルと検索アルゴリズムとを用いて、操作者により超音波画像に設定された検索範囲における特徴部位を検索する。例えば、判別機能184は、検索範囲内で検索窓を複数の位置に移動させる。また、判別機能184は、各位置において、検索窓内の画像情報を、第2の検索用学習済みモデルと検索アルゴリズムとを用いて解析することにより、各検索窓内の画像情報が特徴部位に相当する確率(第3の確率)を算出する。 First, the third detection process executed in step S601 will be described. The determination function 184 uses the search window, the second trained model for search, and the search algorithm to search for a characteristic part in the search range set in the ultrasound image by the operator. For example, the determination function 184 moves the search window to multiple positions within the search range. In addition, the discrimination function 184 analyzes the image information in the search window at each position using the second trained model for search and the search algorithm, so that the image information in each search window becomes a characteristic part. The corresponding probability (third probability) is calculated.
検索窓とは、例えば、第2の検索用学習済みモデルの特徴と比較される検索範囲内の領域の単位である。第2の検索用学習済みモデルとは、例えば、特徴部位の標本となる画像情報を学習したモデルである。検索アルゴリズムとは、上述した第3の確率を算出し、処理対象の超音波画像において特徴部位に相当する画像情報を検索するためのアルゴリズムである。 The search window is, for example, a unit of area within the search range that is compared with the features of the second trained model for search. The second trained model for search is, for example, a model that has learned image information that is a sample of a characteristic part. The search algorithm is an algorithm for calculating the third probability described above and searching for image information corresponding to a characteristic region in the ultrasound image to be processed.
第2の検索用学習済みモデルは、特徴部位を示す第1のパターンの一例である。 The second trained model for search is an example of the first pattern indicating a characteristic part.
そして、判別機能184は、算出された第3の確率が所定の閾値以上である場合に、検索窓で囲まれた範囲を、特徴部位(特徴部位の範囲)として検出する。すなわち、判別機能184は、超音波画像の一部分の特徴と、特徴部位を示す第2の検索用学習済みモデルの特徴とが類似している度合いを示す第3の確率が閾値以上である場合には、超音波画像に特徴部位が含まれると判別する。また、判別機能184は、第3の確率が閾値未満であるときには、超音波画像に特徴部位が含まれないと判別する。 Then, when the calculated third probability is greater than or equal to a predetermined threshold, the determination function 184 detects the range surrounded by the search window as a characteristic part (range of characteristic parts). That is, the discrimination function 184 determines that when the third probability indicating the degree of similarity between the feature of a portion of the ultrasound image and the feature of the second search trained model indicating the characteristic region is greater than or equal to the threshold value. determines that a characteristic region is included in the ultrasound image. Furthermore, when the third probability is less than the threshold value, the determination function 184 determines that the ultrasound image does not include the characteristic region.
そして、判別機能184は、1フレーム分の超音波画像データ毎に、超音波画像に対する第3の検出処理における検索結果(検出結果)を記憶回路170に記憶させる。例えば、判別機能184は、1フレームの超音波画像から特徴部位を検出することができた場合には、特徴部位の位置を示す位置情報を第3の検出処理における検索結果として記憶回路170に記憶させる。なお、ここでいう特徴部位の位置は、超音波画像データの画像空間における位置である。
Then, the determination function 184 causes the
また、1フレームの超音波画像から特徴部位が検出されなかった場合には、判別機能184は、特徴部位が検出されなかったことを示す情報を第3の検出処理における検索結果として記憶回路170に記憶させる。
Further, when a characteristic region is not detected from one frame of the ultrasound image, the discrimination function 184 stores information indicating that a characteristic region has not been detected in the
なお、判別機能184は、検索窓内の画像情報の特徴と第2の検索用学習済みモデルの特徴とが類似している度合いを示す指標の一例として、第3の確率を算出する場合について説明した。しかしながら、判別機能184は、第3の確率に代えて、検索窓内の画像情報の特徴と第2の検索用学習済みモデルの特徴とが類似している度合いを示す類似度等の他の指標を算出してもよい。 Note that the determination function 184 will explain a case where the third probability is calculated as an example of an index indicating the degree of similarity between the features of the image information in the search window and the features of the second trained model for search. did. However, instead of using the third probability, the discrimination function 184 uses other indicators such as similarity, which indicates the degree to which the features of the image information in the search window and the features of the second trained model for search are similar. may be calculated.
以上、ステップS601で実行される第3の検出処理の一例について説明した。図20は、第1の実施形態及び第2の実施形態の変形例3に係る第3の検出処理の結果の一例を示す図である。図20に示す「特徴部位と判定した結果」は、第3の検出処理により特徴部位が検出された場合の検索窓30内の画像情報の一例を示す。図20に示す「特徴部位ではないと判定した結果」は、第3の検出処理により特徴部位が検出されなかった場合の検索窓30内の画像情報の一例を示す。なお、図20には、第3の検出処理において、検索範囲内の複数の位置に検索窓30が配置されて、各位置で第3の確率が算出された結果の例として、8ヶ所の画像情報が示されている。
An example of the third detection process executed in step S601 has been described above. FIG. 20 is a diagram illustrating an example of the results of the third detection process according to the third modification of the first embodiment and the second embodiment. “Result of determination as a characteristic region” shown in FIG. 20 shows an example of image information in the
図20に示すように、判別機能184は、第3の検出処理において、4カ所の位置で特徴部位を検出する。具体的には、図20に示すように、判別機能184は、検索窓30内の4つの画像情報50a~50dを検出する。
As shown in FIG. 20, the discrimination function 184 detects characteristic parts at four positions in the third detection process. Specifically, as shown in FIG. 20, the determination function 184 detects four pieces of
画像情報50aは、過検出された画像情報である。画像情報50bは、実際の特徴部位31eが描出された画像情報である。画像情報50cは、実際の特徴部位31fが描出された画像情報である。画像情報50dは、過検出された画像情報である。すなわち、図20に示す場合には、特徴部位と判定された4つの画像情報のうち、2つの画像情報が過検出されている。
また、図20に示すように、判別機能184は、第3の検出処理において、4カ所の位置で特徴部位を検出していない。具体的には、図20に示すように、判別機能184は、特徴部位として検索窓30内の4つの画像情報50e~50hを検出していない。なお、判別機能184は、画像情報50eに特徴部位31gが含まれているにも関わらず、画像情報50eを検出していない。
Further, as shown in FIG. 20, the determination function 184 does not detect characteristic parts at four positions in the third detection process. Specifically, as shown in FIG. 20, the determination function 184 does not detect the four pieces of
次に、ステップS602で実行される第4の検出処理について説明する。判別機能184は、検索窓と第3の検索用学習済みモデルと検索アルゴリズムとを用いて、操作者により超音波画像に設定された検索範囲における特徴部位を検索する。例えば、判別機能184は、検索範囲内で検索窓を複数の位置に移動させる。また、判別機能184は、各位置において、検索窓内の画像情報を、第3の検索用学習済みモデルと検索アルゴリズムとを用いて解析することにより、各検索窓内の画像情報が特徴部位に相当する確率(第4の確率)を算出する。 Next, the fourth detection process executed in step S602 will be explained. The determination function 184 uses the search window, the third trained model for search, and the search algorithm to search for a characteristic part in the search range set in the ultrasound image by the operator. For example, the determination function 184 moves the search window to multiple positions within the search range. In addition, the discrimination function 184 analyzes the image information in the search window at each position using the third trained model for search and the search algorithm, so that the image information in each search window becomes a characteristic part. A corresponding probability (fourth probability) is calculated.
検索窓とは、例えば、第3の検索用学習済みモデルの特徴と比較される検索範囲内の領域の単位である。第3の検索用学習済みモデルとは、例えば、特徴部位の標本となる画像情報を学習したモデルである。ここで、第3の検索用学習済みモデルは、第2の検索用学習済みモデルとは異なるモデルである。検索アルゴリズムとは、上述した第4の確率を算出し、処理対象の超音波画像において特徴部位に相当する画像情報を検索するためのアルゴリズムである。 The search window is, for example, a unit of area within the search range that is compared with the features of the third trained model for search. The third learned model for search is, for example, a model that has learned image information that is a sample of a characteristic part. Here, the third trained model for search is a different model from the second trained model for search. The search algorithm is an algorithm for calculating the above-mentioned fourth probability and searching for image information corresponding to a characteristic region in an ultrasound image to be processed.
例えば、上述した第2の検索用学習済みモデルは、特徴部位が描出された第1の画像情報群と、特徴部位が描出されていない第2の画像情報群とが用いられて行われた学習により得られるモデルである。一方、第3の検索用学習済みモデルは、特徴部位が描出された第3の画像情報群と、特徴部位が描出されていない第2の画像情報群とが用いられて行われた学習により得られるモデルである。すなわち、第2の検索用学習済みモデルと、第3の検索用学習済みモデルとでは、学習時に、第2の画像情報群が共通して用いられている。 For example, the second trained model for search described above is trained using a first group of image information in which characteristic parts are depicted and a second group of image information in which characteristic parts are not depicted. This is the model obtained by On the other hand, the third trained model for search is obtained through learning performed using the third image information group in which characteristic parts are depicted and the second image information group in which characteristic parts are not depicted. This is a model that can be used. That is, the second image information group is commonly used in the second search trained model and the third search trained model during learning.
このため、第2の検索用学習済みモデルと、第3の検索用学習済みモデルとでは、例えば、同じ特徴部位(例えば、腫瘤)が描出された画像情報でも異なる画像情報を用いた学習が行われているため、検出できる特徴部位が異なる。一方、第2の検索用学習済みモデルと、第3の検索用学習済みモデルとでは、特徴部位が描出されていない画像情報群として、同一の画像情報群(第2の画像情報群)を用いた学習が行われている。このため、第2の検索用学習済みモデルと、第3の検索用学習済みモデルとでは、特徴部位ではないと正しく判断される画像が共通し、かつ、過検出される画像も共通する。 Therefore, the second search trained model and the third search trained model perform learning using different image information, even if the same feature region (for example, a tumor) is depicted. Therefore, the characteristic parts that can be detected are different. On the other hand, the second trained model for search and the third trained model for search use the same image information group (second image information group) as the image information group in which the characteristic part is not depicted. learning is being carried out. Therefore, the second trained model for search and the third trained model for search have the same images that are correctly determined not to be characteristic parts, and also have the same images that are overdetected.
第3の検索用学習済みモデルは、特徴部位を示す第1のパターンとは異なる第2のパターンの一例である。 The third learned model for search is an example of a second pattern that is different from the first pattern indicating a characteristic part.
そして、判別機能184は、算出された第4の確率が所定の閾値以上である場合に、検索窓で囲まれた範囲を、特徴部位(特徴部位の範囲)として検出する。すなわち、判別機能184は、超音波画像の一部分の特徴と、特徴部位を示す第3の検索用学習済みモデルの特徴とが類似している度合いを示す第4の確率が閾値以上である場合には、超音波画像に特徴部位が含まれると判別する。また、判別機能184は、第4の確率が閾値未満であるときには、超音波画像に特徴部位が含まれないと判別する。 Then, when the calculated fourth probability is greater than or equal to a predetermined threshold, the determination function 184 detects the range surrounded by the search window as a characteristic part (range of characteristic parts). That is, the discrimination function 184 determines that when the fourth probability indicating the degree of similarity between the feature of a portion of the ultrasound image and the feature of the third search trained model indicating the characteristic region is greater than or equal to the threshold value. determines that a characteristic region is included in the ultrasound image. Furthermore, when the fourth probability is less than the threshold value, the determination function 184 determines that the ultrasound image does not include the characteristic region.
そして、判別機能184は、1フレーム分の超音波画像データ毎に、超音波画像に対する第4の検出処理における検索結果(検出結果)を記憶回路170に記憶させる。例えば、判別機能184は、1フレームの超音波画像から特徴部位が検出された場合には、特徴部位の位置を示す位置情報を第4の検出処理における検索結果として記憶回路170に記憶させる。なお、ここでいう特徴部位の位置は、超音波画像データの画像空間における位置である。
Then, the determination function 184 causes the
また、判別機能184は、1フレームの超音波画像から特徴部位が検出されなかった場合には、特徴部位が検出されなかったことを示す情報を第4の検出処理における検索結果として記憶回路170に記憶させる。
Further, when a characteristic region is not detected from one frame of the ultrasound image, the determination function 184 stores information indicating that a characteristic region has not been detected in the
なお、判別機能184は、検索窓内の画像情報の特徴と第3の検索用学習済みモデルの特徴とが類似している度合いを示す指標の一例として、第4の確率を算出する場合について説明した。しかしながら、判別機能184は、第4の確率に代えて、検索窓内の画像情報の特徴と第3の検索用学習済みモデルの特徴とが類似している度合いを示す類似度等の他の指標を算出してもよい。 Note that the determination function 184 will explain a case where the fourth probability is calculated as an example of an index indicating the degree of similarity between the features of the image information in the search window and the features of the third trained model for search. did. However, instead of using the fourth probability, the discrimination function 184 uses other indicators such as similarity, which indicates the degree to which the features of the image information in the search window and the features of the third trained model for search are similar. may be calculated.
以上、ステップS602で実行される第4の検出処理の一例について説明した。図21は、第1の実施形態及び第2の実施形態の変形例3に係る第4の検出処理の結果の一例を示す図である。図21に示す「特徴部位と判定した結果」は、第4の検出処理により特徴部位が検出された場合の検索窓30内の画像情報の一例を示す。図21に示す「特徴部位ではないと判定した結果」は、第4の検出処理により特徴部位が検出されなかった場合の検索窓30内の画像情報の一例を示す。なお、図21には、第4の検出処理において、検索範囲内の複数の位置に検索窓30が配置されて、各位置で第4の確率が算出された結果の例として、8ヶ所の画像情報が示されている。
An example of the fourth detection process executed in step S602 has been described above. FIG. 21 is a diagram illustrating an example of the results of the fourth detection process according to the third modification of the first embodiment and the second embodiment. “Result of determination as a characteristic region” shown in FIG. 21 shows an example of image information in the
図21に示すように、判別機能184は、第4の検出処理において、4カ所の位置で特徴部位を検出する。具体的には、図21に示すように、判別機能184は、検索窓30内の4つの画像情報50i~50lを検出する。
As shown in FIG. 21, the discrimination function 184 detects characteristic parts at four positions in the fourth detection process. Specifically, as shown in FIG. 21, the determination function 184 detects four pieces of
画像情報50iは、実際の特徴部位31hが描出された画像情報である。画像情報50jは、過検出された画像情報である。画像情報50kは、実際の特徴部位31iが描出された画像情報である。画像情報50lは、過検出された画像情報である。すなわち、図21に示す場合には、特徴部位と判定された4つの画像情報のうち、2つの画像情報が過検出されている。
The
また、図21に示すように、判別機能184は、第4の検出処理において、4カ所の位置で特徴部位を検出していない。具体的には、図21に示すように、判別機能184は、特徴部位として検索窓30内の4つの画像情報50m~50pを検出していない。なお、判別機能184は、画像情報50oに特徴部位31jが含まれているにも関わらず、画像情報50oを検出していない。同様に、判別機能184は、画像情報50pに特徴部位31kが含まれているにも関わらず、画像情報50pを検出していない。
Further, as shown in FIG. 21, the determination function 184 does not detect characteristic parts at four positions in the fourth detection process. Specifically, as shown in FIG. 21, the determination function 184 does not detect the four pieces of
次に、ステップS603で実行される第5の検出処理について説明する。第5の検出処理では、判別機能184は、第3の検出処理の検出結果及び第4の検出処理の検出結果を用いて、最終的に、特徴部位を検出する。 Next, the fifth detection process executed in step S603 will be explained. In the fifth detection process, the discrimination function 184 uses the detection results of the third detection process and the fourth detection process to finally detect the characteristic region.
ここで、上述したように、第3の検出処理において第2の検索用学習済みモデルが用いられて検出される画像情報のうちの実際の特徴部位が描出された画像情報と、第4の検出処理において第3の検索用学習済みモデルが用いられて検出される画像情報のうちの実際の特徴部位が描出された画像情報とは、異なる。 Here, as described above, the image information in which the actual feature part is depicted out of the image information detected using the second search trained model in the third detection process, and the image information in which the actual feature part is depicted, and the fourth detection This differs from the image information in which the actual characteristic parts are depicted among the image information detected using the third trained search model in the process.
例えば、図20に示す画像情報50b及び画像情報50cと、図20に示す画像情報50i及び画像情報50kとは異なる。
For example, the
しかしながら、上述したように、第3の検出処理において第2の検索用学習済みモデルが用いられて検出される画像情報のうちの過検出された画像情報と、第4の検出処理において第3の検索用学習済みモデルが用いられて検出される画像情報のうちの過検出された画像情報とは、一致(共通)する。すなわち、第3の検出処理と第4の検出処理とで、超音波画像上の過検出される部分は、同一である。 However, as described above, among the image information detected using the second search trained model in the third detection process, over-detected image information and the third detection process in the fourth detection process The over-detected image information among the image information detected using the trained search model matches (common). That is, the over-detected portions on the ultrasound image are the same in the third detection process and the fourth detection process.
例えば、図20に示す画像情報50aと図21に示す画像情報50jとは、一致する。また、図20に示す画像情報50dと図21に示す画像情報50lとは、一致する。
For example, the
そこで、第5の検出処理では、判別機能184は、第3の検出処理で検出された特徴部位、及び、第4の検出処理で検出された特徴部位のうち、第3の検出処理及び第4の検出処理の2つの検出処理において共通して検出された特徴部位以外の特徴部位を検出する。 Therefore, in the fifth detection process, the discrimination function 184 selects the characteristic part detected in the third detection process and the characteristic part detected in the fourth detection process. A characteristic region other than the characteristic region commonly detected in the two detection processes of the detection process is detected.
例えば、第5の検出処理では、判別機能184は、第3の検出処理で検出された画像情報50a~50d及び第4の検出処理で検出された画像情報50i~50lを特定する。そして、第5の検出処理では、判別機能184は、特定した画像情報50a~50d,50i~50lのうち、2つの検出処理において共通して検出された画像情報50a,50d,50j,50lを特定する。
For example, in the fifth detection process, the determination function 184 identifies the
図22は、第1の実施形態及び第2の実施形態の変形例3に係る第5の検出処理の結果の一例を示す図である。そして、第5の検出処理では、判別機能184は、画像情報50a~50d,50i~50lのうち、特定した画像情報50a,50d,50j,50l以外の図22に示す画像情報50b,50c,50i,50kを、最終的に、特徴部位として検出する。
FIG. 22 is a diagram illustrating an example of the results of the fifth detection process according to the third modification of the first embodiment and the second embodiment. In the fifth detection process, the determination function 184 selects the
このように、判別機能184は、第2の検索用学習済みモデルを用いる第3の検出処理により検出された画像情報、及び、第3の検索用学習済みモデルを用いる第4の検出処理により検出された画像情報のうち、第3の検出処理及び第4の検出処理において共通して検出された画像情報を除く画像情報を、特徴部位として最終的に検出し、超音波画像に特徴部位が含まれると判別する。第3の検出処理は、第1の特徴部位検出処理の一例である。また、第4の検出処理は、第2の特徴部位検出処理の一例である。 In this way, the discrimination function 184 uses the image information detected by the third detection process using the second trained model for search, and the image information detected by the fourth detection process using the third trained model for search. Among the image information detected, image information excluding image information commonly detected in the third detection process and the fourth detection process is finally detected as a characteristic part, and the characteristic part is included in the ultrasound image. It is determined that the The third detection process is an example of the first characteristic part detection process. Further, the fourth detection process is an example of the second characteristic part detection process.
このように、変形例3に係る判別機能184は、過検出された特徴部位が最終的に検出される特徴部位の中に含まれないように、過検出された特徴部位を除くことで、最終的に特徴部位を検出する。したがって、変形例3に係る超音波診断装置1によれば、特徴部位に関する判別結果を更に精度よく得ることができる。
In this way, the discrimination function 184 according to the third modification removes the over-detected feature parts so that the over-detected feature parts are not included in the finally detected feature parts. Detect characteristic parts. Therefore, according to the ultrasonic
そして、判別機能184は、第5の検出処理において、最終的に検出した特徴部位の位置を示す位置情報を検索結果として記憶回路170に記憶させる。
Then, in the fifth detection process, the determination function 184 causes the
また、判別機能184は、第5の検出処理において検出されなかった特徴部位については、特徴部位が検出されなかったことを示す情報を検索結果として記憶回路170に記憶させる。
Further, for the characteristic parts not detected in the fifth detection process, the determination function 184 causes the
そして、マーカ情報生成機能185は、第5の検出処理により最終的に検出された特徴部位に基づいて、超音波画像の検出結果を示すマーカ情報を生成する。例えば、マーカ情報生成機能185は、第5の検出処理により最終的に特徴部位が検出される度に、第1の実施形態と同様に、特徴部位として検出された範囲を表す矩形のマーカを示すマーカ情報を生成する。
Then, the marker
そして、マーカ情報生成機能185は、第1の実施形態と同様に、マーカ情報を生成する度に、超音波画像に、マーカ情報により示されるマーカを重畳させる。そして、マーカ情報生成機能185は、第1の実施形態と同様に、マーカが重畳された超音波画像を示す超音波画像データを画像メモリ160に記憶させる。
Then, similarly to the first embodiment, the marker
そして、表示制御機能186は、第1の実施形態と同様に、画像メモリ160に記憶された表示用の超音波画像データにより示される超音波画像をディスプレイ103に表示させる。すなわち、表示制御機能186は、マーカが重畳された超音波画像、及び、マーカが重畳されていない超音波画像を、リアルタイムでディスプレイ103に表示させる。
Then, the
以上、第1の実施形態及び第2の実施形態の変形例3に係る超音波診断装置1について説明した。変形例3に係る超音波診断装置1によれば、上述したように、特徴部位に関する判別結果を更に精度よく得ることができる。
The ultrasound
(第1の実施形態及び第2の実施形態の変形例4)
上述した第1の実施形態及び第2の実施形態では、判別機能184が、超音波プローブ101の移動速度に応じて、複数の種類の導出処理の中から、判別結果を導出する際の導出処理を選択する場合について説明した。しかしながら、判別機能184が、超音波プローブ101の移動速度に応じて、複数の種類の学習済みモデルの中から、判別結果を導出する際に用いる学習済みモデルを選択してもよい。そこで、このような実施形態を、第1の実施形態及び第2の実施形態の変形例4として説明する。
(
In the first and second embodiments described above, the determination function 184 performs a derivation process when deriving a determination result from among a plurality of types of derivation processes according to the moving speed of the ultrasound probe 101. We have explained the case of selecting . However, the discrimination function 184 may select a learned model to be used when deriving the discrimination result from among a plurality of types of learned models, depending on the moving speed of the ultrasound probe 101. Therefore, such an embodiment will be described as a fourth modification of the first embodiment and the second embodiment.
なお、第1の実施形態及び第2の実施形態の変形例4の説明では、第1の実施形態及び第2の実施形態と異なる点を主に説明し、第1の実施形態及び第2の実施形態と同様の構成及び処理については説明を省略する場合がある。 In addition, in the explanation of the fourth modification of the first embodiment and the second embodiment, the points different from the first embodiment and the second embodiment will be mainly explained, and the differences between the first embodiment and the second embodiment will be explained. Descriptions of configurations and processes similar to those in the embodiment may be omitted.
図23は、第1の実施形態及び第2の実施形態の変形例4に係る各種の学習済みモデル及び各種の学習条件の一例を説明するための図である。図23に例示するように、記憶回路170には、運用時の1段階目の処理に用いられる2つの第1の学習済みモデル11a_1,11a_2が記憶されている。また、記憶回路170には、運用時の2段階目の処理に用いられる2つの第2の学習済みモデル12a_1,12a_2が記憶されている。また、記憶回路170には、運用時の3段階目の処理に用いられる2つの第3の学習済みモデル13a_1,13a_2が記憶されている。このように、記憶回路170は、複数の段階のそれぞれに対応する複数の種類の学習済みモデルを記憶する。
FIG. 23 is a diagram for explaining examples of various learned models and various learning conditions according to
また、記憶回路170には、運用時の1段階目の処理に用いられる2つの第1の学習条件11b_1,11b_2が記憶されている。また、記憶回路170には、運用時の2段階目の処理に用いられる2つの第2の学習条件12b_1,12b_2が記憶されている。また、記憶回路170には、運用時の3段階目の処理に用いられる2つの第3の学習条件13b_1,13b_2が記憶されている。このように、記憶回路170は、複数の段階のそれぞれに対応する複数の種類の学習条件を記憶する。
Furthermore, the
第1の学習条件11b_1は、第1の学習済みモデル11a_1を用いた第1の判別処理において用いられる。第1の学習条件11b_2は、第1の学習済みモデル11a_2を用いた第1の判別処理において用いられる。 The first learning condition 11b_1 is used in the first discrimination process using the first learned model 11a_1. The first learning condition 11b_2 is used in the first discrimination process using the first learned model 11a_2.
第2の学習条件12b_1は、第2の学習済みモデル12a_1を用いた第2の判別処理において用いられる。第2の学習条件12b_2は、第2の学習済みモデル12a_2を用いた第2の判別処理において用いられる。 The second learning condition 12b_1 is used in the second discrimination process using the second trained model 12a_1. The second learning condition 12b_2 is used in the second discrimination process using the second trained model 12a_2.
第3の学習条件13b_1は、第3の学習済みモデル13a_1を用いた第3の判別処理において用いられる。第3の学習条件13b_2は、第3の学習済みモデル13a_2を用いた第3の判別処理において用いられる。 The third learning condition 13b_1 is used in the third discrimination process using the third learned model 13a_1. The third learning condition 13b_2 is used in the third discrimination process using the third trained model 13a_2.
このように、1つの学習済みモデルと1つの学習条件とが対応する。ここで、学習済みモデルを用いた判別処理の処理負荷は、この学習済みモデルに対応する学習条件に応じた負荷となる。 In this way, one learned model corresponds to one learning condition. Here, the processing load of the discrimination process using the trained model is a load according to the learning conditions corresponding to this trained model.
2つの第1の学習済みモデル11a_1,11a_2は、第1の判別処理に用いられる調整済みのパラメータである。ただし、第1の学習済みモデル11a_1を用いた第1の判別処理における判別精度は、第1の学習済みモデル11a_2を用いた第1の判別処理における判別精度よりも高い。一方で、第1の学習済みモデル11a_2を用いた第1の判別処理の処理負荷は、第1の学習済みモデル11a_1を用いた第1の判別処理の処理負荷よりも低い。 The two first learned models 11a_1 and 11a_2 are adjusted parameters used in the first discrimination process. However, the discrimination accuracy in the first discrimination process using the first trained model 11a_1 is higher than the discrimination accuracy in the first discrimination process using the first learned model 11a_2. On the other hand, the processing load of the first discrimination process using the first trained model 11a_2 is lower than the processing load of the first discrimination process using the first learned model 11a_1.
また、2つの第2の学習済みモデル12a_1,12a_2は、第2の判別処理に用いられる調整済みのパラメータである。ただし、第2の学習済みモデル12a_1を用いた第2の判別処理における判別精度は、第2の学習済みモデル12a_2を用いた第2の判別処理における判別精度よりも高い。一方で、第2の学習済みモデル12a_2を用いた第2の判別処理の処理負荷は、第2の学習済みモデル12a_1を用いた第2の判別処理の処理負荷よりも低い。 Furthermore, the two second trained models 12a_1 and 12a_2 are adjusted parameters used in the second discrimination process. However, the discrimination accuracy in the second discrimination process using the second trained model 12a_1 is higher than the discrimination accuracy in the second discrimination process using the second learned model 12a_2. On the other hand, the processing load of the second discrimination process using the second trained model 12a_2 is lower than the processing load of the second discrimination process using the second learned model 12a_1.
また、2つの第3の学習済みモデル13a_1,13a_2は、第3の判別処理に用いられる調整済みのパラメータである。ただし、第3の学習済みモデル13a_1を用いた第3の判別処理における判別精度は、第3の学習済みモデル13a_2を用いた第3の判別処理における判別精度よりも高い。一方で、第3の学習済みモデル13a_2を用いた第3の判別処理の処理負荷は、第3の学習済みモデル13a_1を用いた第3の判別処理の処理負荷よりも低い。 Furthermore, the two third learned models 13a_1 and 13a_2 are adjusted parameters used in the third discrimination process. However, the discrimination accuracy in the third discrimination process using the third trained model 13a_1 is higher than the discrimination accuracy in the third discrimination process using the third learned model 13a_2. On the other hand, the processing load of the third discrimination process using the third learned model 13a_2 is lower than the processing load of the third discrimination process using the third learned model 13a_1.
変形例4に係る判別機能184は、運用時の1段階目の第1の判別処理を行う場合に、超音波プローブ101の移動速度が閾値Th1よりも大きいときには、第1の判別処理を実行する際に用いる第1の学習済みモデルとして、第1の学習済みモデル11a_2を選択する。そして、判別機能184は、選択した第1の学習済みモデル11a_2と、対応する第1の学習条件11b_2を用いて、第1の判別処理を実行する。 The discrimination function 184 according to the fourth modification executes the first discrimination process when the moving speed of the ultrasound probe 101 is greater than the threshold Th1 when performing the first discrimination process in the first stage during operation. The first trained model 11a_2 is selected as the first trained model to be used. Then, the determination function 184 executes the first determination process using the selected first learned model 11a_2 and the corresponding first learning condition 11b_2.
また、判別機能184は、運用時の1段階目の第1の判別処理を行う場合に、超音波プローブ101の移動速度が閾値Th2よりも小さいときには、第1の判別処理を実行する際に用いる第1の学習済みモデルとして、第1の学習済みモデル11a_1を選択する。このように、判別機能184は、超音波プローブ101の移動速度が閾値Th2よりも小さい場合には、第1の学習済みモデル11a_2よりも、精度良く第1の判別結果を導出可能な第1の学習済みモデル11a_1を選択する。そして、判別機能184は、選択した第1の学習済みモデル11a_1と、対応する第1の学習条件11b_1を用いて、第1の判別処理を実行する。 Further, the discrimination function 184 is used when performing the first discrimination process in the first stage during operation, when the moving speed of the ultrasound probe 101 is smaller than the threshold value Th2. The first trained model 11a_1 is selected as the first trained model. In this way, when the moving speed of the ultrasound probe 101 is smaller than the threshold Th2, the discrimination function 184 selects the first model that can derive the first discrimination result with higher accuracy than the first trained model 11a_2. Select trained model 11a_1. Then, the determination function 184 executes the first determination process using the selected first learned model 11a_1 and the corresponding first learning condition 11b_1.
また、判別機能184は、運用時の2段階目の第2の判別処理を行う場合に、超音波プローブ101の移動速度が閾値Th1よりも大きいときには、第2の判別処理を実行する際に用いる第2の学習済みモデルとして、第2の学習済みモデル12a_2を選択する。そして、判別機能184は、選択した第2の学習済みモデル12a_2と、対応する第2の学習条件12b_2を用いて、第2の判別処理を実行する。 Further, the discrimination function 184 is used when performing the second discrimination process at the second stage during operation, when the moving speed of the ultrasound probe 101 is greater than the threshold Th1. The second trained model 12a_2 is selected as the second trained model. The determination function 184 then executes the second determination process using the selected second learned model 12a_2 and the corresponding second learning condition 12b_2.
また、判別機能184は、運用時の2段階目の第2の判別処理を行う場合に、超音波プローブ101の移動速度が閾値Th2よりも小さいときには、第2の判別処理を実行する際に用いる第2の学習済みモデルとして、第2の学習済みモデル12a_1を選択する。このように、判別機能184は、超音波プローブ101の移動速度が閾値Th2よりも小さい場合には、第2の学習済みモデル12a_2よりも、精度良く第2の判別結果を導出可能な第2の学習済みモデル12a_1を選択する。そして、判別機能184は、選択した第2の学習済みモデル12a_1と、対応する第2の学習条件12b_1を用いて、第2の判別処理を実行する。 In addition, the discrimination function 184 is used when performing the second discrimination process at the second stage during operation, when the moving speed of the ultrasound probe 101 is smaller than the threshold Th2. The second trained model 12a_1 is selected as the second trained model. In this way, when the moving speed of the ultrasound probe 101 is smaller than the threshold Th2, the discrimination function 184 uses a second model that can derive the second discrimination result more accurately than the second trained model 12a_2. Select trained model 12a_1. Then, the determination function 184 executes a second determination process using the selected second learned model 12a_1 and the corresponding second learning condition 12b_1.
また、判別機能184は、運用時の3段階目の第3の判別処理を行う場合に、超音波プローブ101の移動速度が閾値Th1よりも大きいときには、第3の判別処理を実行する際に用いる第3の学習済みモデルとして、第3の学習済みモデル13a_2を選択する。そして、判別機能184は、選択した第3の学習済みモデル13a_2と、対応する第3の学習条件13b_2を用いて、第3の判別処理を実行する。 Further, the discrimination function 184 is used when performing the third discrimination process at the third stage during operation, when the moving speed of the ultrasound probe 101 is greater than the threshold Th1. The third trained model 13a_2 is selected as the third trained model. Then, the determination function 184 executes a third determination process using the selected third learned model 13a_2 and the corresponding third learning condition 13b_2.
また、判別機能184は、運用時の3段階目の第3の判別処理を行う場合に、超音波プローブ101の移動速度が閾値Th2よりも小さいときには、第3の判別処理を実行する際に用いる第3の学習済みモデルとして、第3の学習済みモデル13a_1を選択する。このように、判別機能184は、超音波プローブ101の移動速度が閾値Th2よりも小さい場合には、第3の学習済みモデル13a_2よりも、精度良く第3の判別結果を導出可能な第3の学習済みモデル13a_1を選択する。そして、判別機能184は、選択した第3の学習済みモデル13a_1と、対応する第3の学習条件13b_1を用いて、第3の判別処理を実行する。 Further, the discrimination function 184 is used when performing the third discrimination process at the third stage during operation, when the moving speed of the ultrasound probe 101 is smaller than the threshold Th2. The third trained model 13a_1 is selected as the third trained model. In this way, when the moving speed of the ultrasound probe 101 is smaller than the threshold Th2, the discrimination function 184 uses the third model that can derive the third discrimination result with higher accuracy than the third learned model 13a_2. Select trained model 13a_1. Then, the determination function 184 executes a third determination process using the selected third learned model 13a_1 and the corresponding third learning condition 13b_1.
上述したように、判別機能184は、超音波プローブ101の移動速度に応じて、複数の種類の学習済みモデルの中から、判別結果を導出する際に用いられる学習済みモデル及び学習条件を選択する処理を実行する。したがって、変形例4に係る超音波診断装置1は、超音波プローブ101の移動速度に応じて、適切な処理を実行することができる。なお、上述した学習済みモデル及び学習条件を選択する処理は、第3の選択処理の一例である。
As described above, the discrimination function 184 selects a trained model and learning conditions to be used when deriving a discrimination result from among a plurality of types of trained models, depending on the moving speed of the ultrasound probe 101. Execute processing. Therefore, the ultrasound
(第1の実施形態及び第2の実施形態の変形例5)
上述した変形例4では、判別機能184が、超音波プローブ101の移動速度に応じて、複数の種類の学習済みモデルの中から、判別結果を導出する際に用いられる学習済みモデル及び学習条件を選択する場合について説明した。しかしながら、判別機能184は、リアルタイムで判別結果を導出するのか、又は、後処理として判別結果を導出するのかに応じて、複数の種類の学習済みモデルの中から、判別結果を導出する際に用いられる学習済みモデルを選択してもよい。そこで、このような実施形態を、第1の実施形態及び第2の実施形態の変形例5として説明する。なお、変形例5の説明では、上述した変形例1及び変形例4と異なる点を主に説明し、変形例1及び変形例4と同様の構成及び処理については説明を省略する場合がある。
(
In the above-mentioned
変形例5では、判別機能184は、リアルタイム処理指示が入力された場合には、運用時の1段階目の第1の判別処理を行うときに、第1の判別処理を実行する際に用いる第1の学習済みモデルとして、第1の学習済みモデル11a_2を選択する。そして、判別機能184は、選択した第1の学習済みモデル11a_2と、対応する第1の学習条件11b_2を用いて、第1の判別処理を実行する。
In
また、判別機能184は、リアルタイム処理指示が入力された場合には、運用時の2段階目の第2の判別処理を行うときに、第2の判別処理を実行する際に用いる第2の学習済みモデルとして、第2の学習済みモデル12a_2を選択する。そして、判別機能184は、選択した第2の学習済みモデル12a_2と、対応する第2の学習条件12b_2を用いて、第2の判別処理を実行する。 In addition, when a real-time processing instruction is input, the discrimination function 184 performs a second learning process to be used when performing the second discrimination process at the second stage during operation. The second trained model 12a_2 is selected as the trained model. The determination function 184 then executes the second determination process using the selected second learned model 12a_2 and the corresponding second learning condition 12b_2.
また、判別機能184は、リアルタイム処理指示が入力された場合には、運用時の3段階目の第3の判別処理を行うときに、第3の判別処理を実行する際に用いる第3の学習済みモデルとして、第3の学習済みモデル13a_2を選択する。そして、判別機能184は、選択した第3の学習済みモデル13a_2と、対応する第3の学習条件13b_2を用いて、第3の判別処理を実行する。 In addition, when a real-time processing instruction is input, the discrimination function 184 performs a third learning process to be used when performing the third discrimination process at the third stage during operation. The third trained model 13a_2 is selected as the trained model. Then, the determination function 184 executes a third determination process using the selected third learned model 13a_2 and the corresponding third learning condition 13b_2.
また、判別機能184は、後処理指示が入力された場合には、運用時の1段階目の第1の判別処理を行うときに、第1の判別処理を実行する際に用いる第1の学習済みモデルとして、第1の学習済みモデル11a_1を選択する。そして、判別機能184は、選択した第1の学習済みモデル11a_1と、対応する第1の学習条件11b_1を用いて、第1の判別処理を実行する。 In addition, when a post-processing instruction is input, the discrimination function 184 performs a first learning process to be used when performing the first discrimination process in the first stage during operation. The first trained model 11a_1 is selected as the trained model. Then, the determination function 184 executes the first determination process using the selected first learned model 11a_1 and the corresponding first learning condition 11b_1.
また、判別機能184は、後処理指示が入力された場合には、運用時の2段階目の第2の判別処理を行うときに、第2の判別処理を実行する際に用いる第2の学習済みモデルとして、第2の学習済みモデル12a_1を選択する。そして、判別機能184は、選択した第2の学習済みモデル12a_1と、対応する第2の学習条件12b_1を用いて、第2の判別処理を実行する。 In addition, when a post-processing instruction is input, the discrimination function 184 performs a second learning process to be used when performing the second discrimination process at the second stage during operation. The second trained model 12a_1 is selected as the trained model. Then, the determination function 184 executes a second determination process using the selected second learned model 12a_1 and the corresponding second learning condition 12b_1.
また、判別機能184は、後処理指示が入力された場合には、運用時の3段階目の第3の判別処理を行うときに、第3の判別処理を実行する際に用いる第3の学習済みモデルとして、第3の学習済みモデル13a_1を選択する。そして、判別機能184は、選択した第3の学習済みモデル13a_1と、対応する第3の学習条件13b_1を用いて、第3の判別処理を実行する。 In addition, when a post-processing instruction is input, the determination function 184 performs a third learning process to be used when performing the third determination process at the third stage during operation. The third trained model 13a_1 is selected as the trained model. Then, the determination function 184 executes a third determination process using the selected third learned model 13a_1 and the corresponding third learning condition 13b_1.
したがって、第1の実施形態及び第2の実施形態の変形例5に係る超音波診断装置1によれば、リアルタイムで判別結果を導出するのか、又は、後処理として判別結果を導出するのかに応じて、適切な処理を行うことができる。また、変形例5に係る超音波診断装置1によれば、第1の実施形態及び第2の実施形態と同様に、特徴部位に関する判別結果を精度よく得ることができる。
Therefore, according to the ultrasonic
(第1の実施形態及び第2の実施形態の変形例6)
次に、第1の学習済みモデル11aを用いた第1の判別処理及び第2の学習済みモデル12aを用いた第2の判別処理の判別精度を高める場合の変形例を、第1の実施形態及び第2の実施形態の変形例6として説明する。なお、変形例6の説明では、第1の実施形態及び第2の実施形態と異なる点を主に説明し、第1の実施形態及び第2の実施形態と同様の構成及び処理については説明を省略する場合がある。
(Variation 6 of the first embodiment and the second embodiment)
Next, a modification example for increasing the discrimination accuracy of the first discrimination process using the first trained
例えば、変形例6に係る第2の学習済みモデル12a及び第2の学習条件12bに基づく第2の判別処理は、第1の実施形態及び第2の実施形態に係る第2の判別処理とは異なり、超音波画像に含まれる特徴部位が悪性であるか、良性であるか、又は、悪性でも良性でもないかを判別する。
For example, the second discrimination process based on the second learned
変形例6では、学習時の2段階目では、学習済みモデル生成機能201a又は学習済みモデル生成機能187は、超音波画像データ20と、ラベルとの関係を学習することによって、第2の学習済みモデル12aを生成し、第2の学習条件12bを記録する。変形例6では、第2の学習済みモデル12aを生成する際に用いられるラベルは、超音波画像データにより示される超音波画像に含まれる特徴部位が悪性であるのか、良性であるのか、又は、悪性でも良性でもないのかを示す。
In modification 6, in the second stage of learning, the learned
ここで、第2の判別処理に入力される超音波画像データにより示される超音波画像には、特徴部位が含まれることが前提となっている。しかしながら、第1の判別処理において過検出されてしまい、過検出された超音波画像データが第2の判別処理に入力される場合もあり得る。 Here, it is assumed that the ultrasound image represented by the ultrasound image data input to the second discrimination process includes a characteristic region. However, there may be cases where over-detection occurs in the first discrimination process, and the over-detected ultrasound image data is input to the second discrimination process.
そこで、変形例6では、第2の判別処理は、超音波画像に含まれる特徴部位が悪性であるか、良性であるか、又は、悪性でも良性でもないかを判別する。 Therefore, in the sixth modification, the second discrimination process discriminates whether the characteristic region included in the ultrasound image is malignant, benign, or neither malignant nor benign.
第2の判別処理により超音波画像に含まれる特徴部位が悪性でも良性でもないと判別された場合には、超音波画像に特徴部位が含まれていないことが考えられる。すなわち、悪性でも良性でもないと判別された場合には、過検出された超音波画像データが第2の判別処理に入力されたと考えられる。すなわち、悪性でも良性でもないと判別された超音波画像データは、過検出された超音波画像データであると考えられる。 If the second discrimination process determines that the characteristic site included in the ultrasound image is neither malignant nor benign, it is possible that the characteristic site is not included in the ultrasound image. That is, if it is determined that the object is neither malignant nor benign, it is considered that over-detected ultrasound image data has been input to the second determination process. That is, ultrasound image data determined to be neither malignant nor benign is considered to be overdetected ultrasound image data.
そこで、学習済みモデル生成機能201a又は学習済みモデル生成機能187は、悪性でも良性でもないと判別された超音波画像データを用いて、第1の学習済みモデル11a及び第1の学習条件11bを更新する。以下の説明では、学習済みモデル生成機能187が、第1の学習済みモデル11a及び第1の学習条件11bを更新する場合について説明する。しかしながら、学習済みモデル生成機能201aが、以下で説明する学習済みモデル生成機能187が実行する処理と同様の処理を実行して、第1の学習済みモデル11a及び第1の学習条件11bを更新してもよい。
Therefore, the learned
学習済みモデル生成機能187は、悪性でも良性でもないと判別された超音波画像データと、超音波画像に特徴部位が含まれないことを示す第1のラベル15とを対応付けて学習することにより、第1の学習済みモデル11a及び第1の学習条件11bを更新する。これにより、第1の学習済みモデル11a及び第1の学習条件11bに基づく第1の判別処理の判別精度を高くすることができる。
The trained model generation function 187 learns by associating ultrasound image data determined to be neither malignant nor benign with the first label 15 indicating that the ultrasound image does not include a characteristic region. , updates the first learned
また、例えば、変形例6に係る第3の学習済みモデル13a及び第3の学習条件13bに基づく第3の判別処理は、第1の実施形態及び第2の実施形態に係る第3の判別処理とは異なり、超音波画像に含まれる悪性の特徴部位の悪性度が悪性度Aであるか、悪性度Bであるか、又は、悪性度Aでも悪性度Bでもないかを判別する。 Further, for example, the third discrimination process based on the third learned model 13a and the third learning condition 13b according to the sixth modification is the third discrimination process according to the first embodiment and the second embodiment. In contrast, it is determined whether the malignancy of the malignant characteristic site included in the ultrasound image is malignancy level A, malignancy level B, or neither malignancy level A nor malignancy level B.
変形例6では、学習時の3段階目では、学習済みモデル生成機能201a又は学習済みモデル生成機能187は、超音波画像データ25と、ラベルとの関係を学習することによって、第3の学習済みモデル13aを生成し、第3の学習条件13bを記録する。変形例6では、第3の学習済みモデル13aを生成する際に用いられるラベルは、超音波画像データにより示される超音波画像に含まれる悪性の特徴部位の悪性度が、悪性度Aであるのか、悪性度Bであるのか、又は、悪性度Aでも悪性度Bでもないのかを示す。
In modification example 6, in the third stage of learning, the learned
ここで、第3の判別処理に入力される超音波画像データにより示される超音波画像に含まれる特徴部位は、悪性であることが前提となっている。しかしながら、第2の判別処理において、誤って、良性の特徴部位を悪性であると判別してしまい、誤って悪性であると判別された超音波画像データが第3の判別処理に入力される場合もあり得る。 Here, it is assumed that the characteristic site included in the ultrasound image indicated by the ultrasound image data input to the third discrimination process is malignant. However, in the second discrimination process, a benign characteristic region is mistakenly judged as malignant, and the ultrasound image data incorrectly judged as malignant is input to the third discrimination process. It is also possible.
そこで、変形例6では、第3の判別処理は、超音波画像に含まれる悪性の特徴部位の悪性度が悪性度Aであるか、悪性度Bであるか、又は、悪性度Aでも悪性度Bでもないかを判別する。 Therefore, in Modified Example 6, the third discrimination process determines whether the malignancy of the malignant characteristic part included in the ultrasound image is malignant grade A, malignant grade B, or even if malignant grade A is malignant. Determine whether it is B or not.
第3の判別処理により超音波画像に含まれる特徴部位の悪性度が、悪性度Aでも悪性度Bでもないと判別された場合には、超音波画像に含まれる特徴部位が良性であると考えられる。すなわち、悪性度Aでも悪性度Bでもないと判別された場合には、良性の特徴部位が誤って悪性であると判別された超音波画像データが第3の判別処理に入力されたと考えられる。すなわち、悪性度Aでも悪性度Bでもないと判別された超音波画像データは、良性の特徴部位が誤って悪性であると判別された超音波画像データであると考えられる。 If the third discrimination process determines that the malignancy of the characteristic part included in the ultrasound image is neither grade A nor grade B, the characteristic part included in the ultrasound image is considered to be benign. It will be done. That is, if it is determined that the malignancy level is neither A nor B, it is considered that the ultrasound image data in which a benign characteristic region was erroneously determined to be malignant was input to the third determination process. That is, the ultrasound image data determined to be neither malignant grade A nor malignant grade B is considered to be ultrasound image data in which a benign characteristic region was erroneously determined to be malignant.
そこで、学習済みモデル生成機能201a又は学習済みモデル生成機能187は、悪性度Aでも悪性度Bでもないと判別された超音波画像データを用いて、第2の学習済みモデル12a及び第2の学習条件12bを更新する。以下の説明では、学習済みモデル生成機能187が、第2の学習済みモデル12a及び第2の学習条件12bを更新する場合について説明する。しかしながら、学習済みモデル生成機能201aが、以下で説明する学習済みモデル生成機能187が実行する処理と同様の処理を実行して、第2の学習済みモデル12a及び第2の学習条件12bを更新してもよい。
Therefore, the learned
学習済みモデル生成機能187は、悪性度Aでも悪性度Bでもないと判別された超音波画像データと、超音波画像に含まれる特徴部位が良性であることを示すラベルとを対応付けて学習することにより、第2の学習済みモデル12a及び第2の学習条件12bを更新する。これにより、第2の学習済みモデル12a及び第2の学習条件12bに基づく第2の判別処理の判別精度を高くすることができる。
The trained model generation function 187 learns by associating ultrasound image data that is determined to be neither malignant grade A nor malignant grade B with a label indicating that a characteristic part included in the ultrasound image is benign. As a result, the second learned
変形例6について説明した。上述したように、変形例6に係る学習済みモデル生成機能187は、一の段階の次の段階に対応する判別処理から出力された所定の判別結果に対応する超音波画像データと、この所定の判別結果とを対応付けて学習することにより、一の段階に対応する学習済みモデルを新たに生成し、学習条件を新たに記録する。これにより、一の段階に対応する判別処理の判別精度を高くすることができる。 Modification 6 has been explained. As described above, the trained model generation function 187 according to the sixth modification uses ultrasound image data corresponding to a predetermined discrimination result outputted from the discrimination process corresponding to the next stage of one stage, and this predetermined By learning in association with the discrimination results, a new trained model corresponding to the first stage is generated, and learning conditions are newly recorded. Thereby, the discrimination accuracy of the discrimination process corresponding to the first stage can be increased.
(第1の実施形態及び第2の実施形態の変形例7)
次に、第1の学習済みモデル11aを用いた第1の判別処理及び第2の学習済みモデル12aを用いた第2の判別処理の判別精度を高める場合の他の変形例を、第1の実施形態及び第2の実施形態の変形例7として説明する。なお、変形例7の説明では、第1の実施形態及び第2の実施形態と異なる点を主に説明し、第1の実施形態及び第2の実施形態と同様の構成及び処理については説明を省略する場合がある。
(Modification 7 of the first embodiment and the second embodiment)
Next, another modification example for improving the discrimination accuracy of the first discrimination process using the first trained
上述した変形例6では、第1の実施形態及び第2の実施形態とは異なる学習方法により、第2の学習済みモデル12a及び第3の学習済みモデル13aが生成される場合について説明した。一方、変形例7では、第1の実施形態及び第2の実施形態と同様の学習方法により生成された第2の学習済みモデル12a及び第3の学習済みモデル13aが用いられる。
In the sixth modification described above, a case has been described in which the second trained
ただし、変形例7では、第4の学習済みモデル、第4の学習条件、第5の学習済みモデル及び第5の学習条件が用いられる。変形例7では、運用時の2段階目において、第4の学習済みモデル及び第4の学習条件が用いられる第4の判別処理が、第2の判別処理よりも前に実行される。また、運用時の3段階目において、第5の学習済みモデル及び第5の学習条件が用いられる第5の判別処理が、第3の判別処理よりも前に実行される。 However, in Modification 7, a fourth trained model, a fourth learning condition, a fifth trained model, and a fifth learning condition are used. In Modification 7, in the second stage of operation, the fourth discrimination process using the fourth learned model and the fourth learning condition is executed before the second discrimination process. Furthermore, in the third stage of operation, a fifth discrimination process using a fifth trained model and a fifth learning condition is executed before the third discrimination process.
運用時の2段階目において、判別機能184は、第4の学習済みモデル及び第4の学習条件を用いて、CAD処理として、第4の判別処理を実行する。第4の判別処理は、超音波画像データ22に示される超音波画像に特徴部位が含まれるか又は含まれないかを判別し、判別結果(第4の判別結果)を導出する処理である。このように、変形例7では、判別機能184は、運用時の1段階目で実行される第1の判別処理と同様の第4の判別処理を、運用時の2段階目において実行する。また、第4の学習済みモデルは、第1の学習済みモデル11aと同様の方法で生成される。また、第4の学習条件は、第1の学習条件11bと同様の方法で記録される。
In the second stage of operation, the discrimination function 184 executes a fourth discrimination process as a CAD process using the fourth learned model and the fourth learning condition. The fourth determination process is a process of determining whether a characteristic region is included or not included in the ultrasound image shown in the
ただし、第1の学習済みモデル11aを生成する場合よりも、第4の学習済みモデルを生成する場合の方が、第1の判別処理において過検出された超音波画像データが多く用いられる。
However, when generating the fourth trained model, more ultrasound image data overdetected in the first discrimination process is used than when generating the first trained
このため、第4の学習済みモデル及び第4の学習条件を用いた第4の判別処理では、第1の判別処理において過検出された超音波画像データを過検出することが抑制される。 Therefore, in the fourth discrimination process using the fourth trained model and the fourth learning condition, over-detection of ultrasound image data that was over-detected in the first discrimination process is suppressed.
ここで、第4の判別処理を実行した判別機能184により、超音波画像に特徴部位が含まれると判別された場合について説明する。この場合、運用時の2段階目において、判別機能184は、第2の学習済みモデル12a及び第2の学習条件12bを用いて、超音波画像に特徴部位が含まれると判別された超音波画像データに対して、第2の判別処理を実行する。
Here, a case will be described in which the determination function 184 that has executed the fourth determination process determines that the ultrasound image includes a characteristic region. In this case, in the second stage of operation, the discrimination function 184 uses the second learned
また、第4の判別処理を実行した判別機能184により、超音波画像に特徴部位が含まれないと判別された場合について説明する。この場合、学習済みモデル生成機能201a又は学習済みモデル生成機能187は、超音波画像に特徴部位が含まれないと判別された超音波画像データを用いて、第1の学習済みモデル11a及び第1の学習条件11bを更新する。以下の説明では、学習済みモデル生成機能187が、第1の学習済みモデル11a及び第1の学習条件11bを更新する場合について説明する。しかしながら、学習済みモデル生成機能201aが、以下で説明する学習済みモデル生成機能187が実行する処理と同様の処理を実行して、第1の学習済みモデル11a及び第1の学習条件11bを更新してもよい。
Further, a case will be described in which the determination function 184 that has executed the fourth determination process determines that the ultrasound image does not include a characteristic region. In this case, the learned
学習済みモデル生成機能187は、超音波画像に特徴部位が含まれないと判別された超音波画像データと、超音波画像に特徴部位が含まれないことを示す第1のラベル15とを対応付けて学習することにより、第1の学習済みモデル11a及び第1の学習条件11bを更新する。これにより、第1の学習済みモデル11a及び第1の学習条件11bに基づく第1の判別処理の判別精度を高くすることができる。
The trained model generation function 187 associates the ultrasound image data determined that the ultrasound image does not contain a characteristic region with the first label 15 indicating that the ultrasound image does not contain the characteristic region. By learning, the first learned
そして、運用時の3段階目において、判別機能184は、第5の学習済みモデル及び第5の学習条件を用いて、第5の判別処理を実行する。第5の判別処理は、運用時の2段階目において第2の判別処理により良性であると判別された特徴部位が、良性であるか又は悪性であるかを再び判別し、判別結果(第5の判別結果)を導出する処理である。このように、変形例7では、判別機能184は、運用時の2段階目で実行される第2の判別処理と同様の第5の判別処理を、運用時の3段階目において実行する。また、第5の学習済みモデルは、第2の学習済みモデル12aと同様の方法で生成される。また、第5の学習条件は、第2の学習条件12bと同様の方法で記録される。
Then, in the third stage of operation, the discrimination function 184 executes the fifth discrimination process using the fifth learned model and the fifth learning condition. In the fifth discrimination process, it is determined again whether the characteristic region that was determined to be benign by the second discrimination process in the second stage of operation is benign or malignant, and the discrimination result (the fifth This is the process of deriving the determination result). In this way, in the seventh modification, the determination function 184 executes the fifth determination process, which is similar to the second determination process executed in the second stage of operation, in the third stage of operation. Further, the fifth trained model is generated in the same manner as the second trained
ただし、第2の学習済みモデル12aを生成する場合よりも、第5の学習済みモデルを生成する場合の方が、第2の判別処理において良性の特徴部位が誤って悪性であると判別された超音波画像データが多く用いられる。
However, in the case of generating the fifth trained model, a benign feature part was incorrectly determined to be malignant in the second discrimination process, rather than in the case of generating the second trained
このため、第5の学習済みモデル及び第5の学習条件を用いた第5の判別処理では、第2の判別処理において良性の特徴部位が誤って悪性であると判別された超音波画像データに含まれる特徴部位を、良性であると正しく判別することができる。 Therefore, in the fifth discrimination process using the fifth trained model and the fifth learning condition, a benign feature region is incorrectly determined to be malignant in the ultrasound image data in the second discrimination process. The included characteristic parts can be correctly determined to be benign.
ここで、第5の判別処理を実行した判別機能184により、超音波画像に含まれる特徴部位が悪性であると判別された場合について説明する。この場合、運用時の3段階目において、判別機能184は、第3の学習済みモデル13a及び第3の学習条件13bを用いて、特徴部位が悪性であると判別された超音波画像データに対して、第3の判別処理を実行する。 Here, a case will be described in which the characteristic region included in the ultrasound image is determined to be malignant by the determination function 184 that has executed the fifth determination process. In this case, in the third stage of operation, the discrimination function 184 uses the third trained model 13a and the third learning condition 13b to apply the ultrasound image data whose characteristic region is determined to be malignant. Then, the third determination process is executed.
一方、第5の判別処理を実行した判別機能184により、超音波画像に含まれる特徴部位が良性であると判別された場合について説明する。この場合、学習済みモデル生成機能201a又は学習済みモデル生成機能187は、特徴部位が良性であると判別された超音波画像データを用いて、第2の学習済みモデル12a及び第2の学習条件12bを更新する。以下の説明では、学習済みモデル生成機能187が、第2の学習済みモデル12a及び第2の学習条件12bを更新する場合について説明する。しかしながら、学習済みモデル生成機能201aが、以下で説明する学習済みモデル生成機能187が実行する処理と同様の処理を実行して、第2の学習済みモデル12a及び第2の学習条件12bを更新してもよい。
On the other hand, a case will be described in which the characteristic region included in the ultrasound image is determined to be benign by the determination function 184 that has executed the fifth determination process. In this case, the learned
学習済みモデル生成機能187は、特徴部位が良性であると判別された超音波画像データと、特徴部位が良性であることを示す第2のラベル21とを対応付けて学習することにより、第2の学習済みモデル12a及び第2の学習条件12bを更新する。これにより、第2の学習済みモデル12a及び第2の学習条件12bに基づく第2の判別処理の判別精度を高くすることができる。
The trained model generation function 187 learns by associating and learning the ultrasound image data in which the characteristic region is determined to be benign and the second label 21 indicating that the characteristic region is benign. The learned
変形例7について説明した。上述したように、変形例7に係る学習済みモデル生成機能187は、一の段階の次の段階に対応する判別処理から出力された所定の判別結果に対応する超音波画像データと、この所定の判別結果とを対応付けて学習することにより、一の段階に対応する学習済みモデルを新たに生成し、学習条件を新たに記録する。これにより、一の段階に対応する判別処理の判別精度を高くすることができる。 Modification 7 has been explained. As described above, the trained model generation function 187 according to Modification Example 7 uses ultrasonic image data corresponding to a predetermined discrimination result outputted from the discrimination process corresponding to the next stage after the first stage, and this predetermined By learning in association with the discrimination results, a new trained model corresponding to the first stage is generated, and learning conditions are newly recorded. Thereby, the discrimination accuracy of the discrimination process corresponding to the first stage can be increased.
(第3の実施形態)
なお、上述した実施形態及び変形例では、超音波診断装置1が、学習済みモデル及び学習条件を用いて、判別結果を導出する場合について説明した。しかしながら、医用画像処理装置が、リアルタイムではなく、後処理として同様の処理を行ってよい。そこで、このような実施形態を第3の実施形態として説明する。
(Third embodiment)
In addition, in the embodiment and modification example mentioned above, the case where the ultrasonic
図24は、第3の実施形態に係る医用画像処理装置300の構成例を示す図である。図24に例示するように、医用画像処理装置300は、入力装置301と、ディスプレイ302と、記憶回路310と、処理回路320とを備える。入力装置301、ディスプレイ302、記憶回路310、処理回路320は、相互に通信可能に接続される。医用画像処理装置300は、解析装置の一例である。
FIG. 24 is a diagram showing a configuration example of a medical
入力装置301は、マウス、キーボード、ボタン、パネルスイッチ、タッチコマンドスクリーン、フットスイッチ、トラックボール、ジョイスティック等により実現される。入力装置301は、医用画像処理装置300の操作者からの各種設定要求を受け付ける。入力装置301は、受け付けた各種設定要求を処理回路320へ出力する。例えば、入力装置301は、医用画像処理装置300の操作者からCAD処理を実行するための指示(実行指示)を受け付け、受け付けた実行指示を処理回路320に出力する。また、操作者は、入力装置301を介して、CAD処理において、特徴部位の検索範囲であるROIを超音波画像に設定することもできる。
The input device 301 is implemented by a mouse, keyboard, button, panel switch, touch command screen, foot switch, trackball, joystick, or the like. The input device 301 receives various setting requests from the operator of the medical
ディスプレイ302は、例えば、医用画像を表示したり、操作者が入力装置301を用いて各種設定要求を入力するためのGUIを表示したりする。
The
記憶回路310は、GUIを表示するための各種のプログラムや、当該プログラムによって用いられる情報を記憶する。また、記憶回路310は、超音波診断装置1によって生成された時系列に沿った複数の超音波画像データを記憶する。また、記憶回路310は、上述した第1の実施形態、第2の実施形態又は変形例1~7のうちのいずれかの各種の学習済みモデル及び各種の学習条件を記憶する。これら各種の学習済みモデル及び各種の学習条件は、処理回路320により実行される処理に用いられる。
The
処理回路320は、医用画像処理装置300の処理全体を制御する。処理回路320は、例えば、プロセッサにより実現される。例えば、図24に示すように、処理回路320は、制御機能321、速度検出機能322、取得機能323、学習済みモデル生成機能324、判別機能325、マーカ情報生成機能326及び表示制御機能327の各処理機能を有する。ここで、例えば、図24に示す処理回路320の構成要素である制御機能321、速度検出機能322、取得機能323、学習済みモデル生成機能324、判別機能325、マーカ情報生成機能326及び表示制御機能327の各処理機能は、コンピュータによって実行可能なプログラムの形態で記憶回路310に記録されている。処理回路320は、各プログラムを記憶回路310から読み出し、実行することで各プログラムに対応する機能を実現するプロセッサである。換言すると、各プログラムを読み出した状態の処理回路320は、図24の処理回路320内に示された各機能を有することとなる。
The
医用画像処理装置300は、例えば、超音波診断装置1により生成された時系列に沿った複数の超音波画像データを取得する。ただし、この超音波画像データには、速度検出器104により検出された超音波プローブ101の移動速度を示す検出信号が付加されている。そして、医用画像処理装置300は、超音波画像データに対して、上述した第1の実施形態、第2の実施形態又は変形例1~7のうちのいずれかと同様の処理を行って、ディスプレイ302に、超音波画像、及び、検出された特徴部位等の情報を表示させる。
The medical
制御機能321は、医用画像処理装置300の処理全体を制御する。速度検出機能322は、上述した速度検出機能182と同様の機能を有する。例えば、速度検出機能322は、超音波画像データに付加された検出信号に基づいて、超音波プローブ101の移動速度を検出する。取得機能323は、上述した取得機能183と同様の機能を有する。学習済みモデル生成機能324は、上述した学習済みモデル生成機能187と同様の機能を有する。判別機能325は、上述した判別機能184と同様の機能を有する。マーカ情報生成機能326は、上述したマーカ情報生成機能185と同様の機能を実行する。表示制御機能327は、上述した表示制御機能186と同様の機能を実行する。
The
以上、第3の実施形態に係る医用画像処理装置300について説明した。第3の実施形態に係る医用画像処理装置300によれば、第1の実施形態等と同様に、特徴部位に関する判別結果を精度よく得ることができる。
The medical
なお、上述した少なくとも1つの実施形態又は変形例において、超音波診断装置1は、処理回路180が備える各機能、各種の学習済みモデル及び各種の学習条件を1つのソフトウェアパッケージとして扱ってもよい。同様に、医用画像処理装置300は、処理回路320が備える各機能、各種の学習済みモデル及び各種の学習条件を1つのソフトウェアパッケージとして扱ってもよい。
In addition, in at least one embodiment or modification described above, the ultrasound
以上述べた少なくとも1つの実施形態又は変形例によれば、特徴部位に関する判別結果を精度よく得ることができる。 According to at least one embodiment or modification described above, it is possible to obtain a determination result regarding a characteristic part with high accuracy.
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although several embodiments of the invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, substitutions, and changes can be made without departing from the gist of the invention. These embodiments and their modifications are included within the scope and gist of the invention as well as within the scope of the invention described in the claims and its equivalents.
1 超音波診断装置
184 判別機能
187 学習済みモデル生成機能
1 Ultrasonic diagnostic equipment 184 Discrimination function 187 Learned model generation function
Claims (17)
前記複数の学習済みモデルのうち少なくとも1つの学習済みモデルを用いて、前記少なくとも1つの学習済みモデルに対応する判別処理を実行することにより、前記被検体の特徴部位に関する判別結果を導出する判別部と、
を備え、
前記判別部は、前記複数の段階のそれぞれにおいて、他の段階で実行される判別処理とは異なる判別処理を実行する、
超音波診断装置。 When each of the plurality of trained models corresponding to each of the plurality of stages executes each of the plurality of discrimination processes that outputs discrimination results regarding the characteristic parts of the subject depicted in the input medical image data. a storage unit that stores each of the plurality of trained models used for the
A discriminator that derives a discrimination result regarding a characteristic part of the subject by executing a discrimination process corresponding to the at least one learned model using at least one learned model among the plurality of learned models. and,
Equipped with
The discrimination unit executes a discrimination process in each of the plurality of stages that is different from discrimination processes executed in other stages.
Ultrasound diagnostic equipment.
請求項1に記載の超音波診断装置。 The discrimination unit is configured to process medical image data corresponding to a predetermined discrimination result outputted from a discrimination process corresponding to one stage among the plurality of stages to a discrimination process corresponding to a next stage after the first stage. input, and derive a discrimination result output from a discrimination process corresponding to the next stage of the first stage as a discrimination result corresponding to the next stage of the first stage;
The ultrasonic diagnostic apparatus according to claim 1.
前記複数の医用画像データを収集する際に用いられる超音波プローブの移動速度を検出する検出部と、
を更に備え、
前記判別部は、前記超音波プローブの移動速度に応じて、前記複数の医用画像データの複数の種類のフレームレートの中から、判別結果を導出する際のフレームレートを選択する第1の選択処理、及び、前記移動速度に応じて、判別結果を導出するための複数の種類の導出処理の中から、判別結果を導出する際の導出処理を選択する第2の選択処理を実行する、
請求項1又は2に記載の超音波診断装置。 a collection unit that collects a plurality of the medical image data;
a detection unit that detects a moving speed of an ultrasound probe used when collecting the plurality of medical image data;
further comprising;
The discrimination unit performs a first selection process of selecting a frame rate for deriving a discrimination result from among a plurality of types of frame rates of the plurality of medical image data, according to a moving speed of the ultrasound probe. , and executing a second selection process for selecting a derivation process for deriving the discrimination result from among a plurality of types of derivation processes for deriving the discrimination result, according to the movement speed,
The ultrasonic diagnostic apparatus according to claim 1 or 2.
前記複数の医用画像データを収集する際に用いられる超音波プローブの移動速度を検出する検出部と、
を更に備え、
前記記憶部は、前記複数の段階のそれぞれに対応する複数の種類の学習済みモデルを記憶し、
前記判別部は、前記超音波プローブの移動速度に応じて、前記複数の医用画像データの複数の種類のフレームレートの中から、判別結果を導出する際のフレームレートを選択する第1の選択処理、及び、前記移動速度に応じて、前記複数の種類の学習済みモデルの中から、判別結果を導出する際に用いられる学習済みモデルを選択する第3の選択処理を実行する、
請求項1又は2に記載の超音波診断装置。 a collection unit that collects a plurality of the medical image data;
a detection unit that detects a moving speed of an ultrasound probe used when collecting the plurality of medical image data;
further comprising;
The storage unit stores a plurality of types of trained models corresponding to each of the plurality of stages,
The discrimination unit performs a first selection process of selecting a frame rate for deriving a discrimination result from among a plurality of types of frame rates of the plurality of medical image data, according to a moving speed of the ultrasound probe. , and executing a third selection process of selecting a trained model to be used in deriving a discrimination result from among the plurality of types of trained models according to the movement speed;
The ultrasonic diagnostic apparatus according to claim 1 or 2.
請求項3又は4に記載の超音波診断装置。 In the first selection process, if the moving speed is larger than a first threshold, the determining unit selects a first frame rate as a frame rate for deriving the determination result, and selects the first frame rate as the frame rate when deriving the determination result, and is smaller than a second threshold that is smaller than the first threshold, selecting a second frame rate lower than the first frame rate as the frame rate for deriving the discrimination result;
The ultrasonic diagnostic apparatus according to claim 3 or 4.
請求項3に記載の超音波診断装置。 In the second selection process, if the moving speed is larger than the first threshold, the discrimination unit selects the first derivation process as the derivation process when deriving the discrimination result, and selects the first derivation process as the derivation process when deriving the discrimination result. is smaller than the second threshold value, which is smaller than the first threshold value, a second derivation process that derives more discrimination results than the first derivation process, or a second derivation process when deriving the discrimination results. selecting as the derivation process a third derivation process that is capable of deriving a discrimination result with higher accuracy than the first derivation process and has a higher processing load;
The ultrasonic diagnostic apparatus according to claim 3.
請求項4に記載の超音波診断装置。 In the third selection process, the discrimination unit selects a first trained model as a trained model to be used when deriving a discrimination result if the moving speed is greater than a first threshold; If the moving speed is smaller than a second threshold value, which is smaller than the first threshold value, the learned model used to derive the discrimination result is used to derive the discrimination result with higher accuracy than the first trained model. selecting a second trained model that is possible and has a high processing load;
The ultrasonic diagnostic apparatus according to claim 4.
請求項6に記載の超音波診断装置。 When the moving speed is greater than the first threshold, the determining unit performs the first derivation process by determining a part of the medical image indicated by the input medical image data and a first When the index indicating the degree of similarity between the two patterns is equal to or higher than a threshold value, it is determined that the medical image includes the characteristic region, and when the index is less than the threshold value, it is determined that the characteristic region is included in the medical image. Execute feature part detection processing to derive a discrimination result that is a result of determining that there is no
The ultrasonic diagnostic apparatus according to claim 6.
請求項8に記載の超音波診断装置。 When the moving speed is smaller than the second threshold, the determining unit determines, as the third derivation process, that the characteristic part detection process and the characteristic part detection process are included in the medical image. degree of similarity between the detected characteristic region and a second pattern indicating a characteristic region estimated to be erroneously determined to be included in the medical image even though it is not included in the medical image in the characteristic region detection process; When the index indicating is equal to or greater than a threshold, a correction process is executed to correct the determination result that the characteristic region determined to be included in the medical image is not included in the medical image.
The ultrasonic diagnostic apparatus according to claim 8.
請求項1に記載の超音波診断装置。 The discriminating unit is configured to detect a medical image indicated by the input medical image data, which is detected by a first characteristic part detection process using a first pattern indicating a characteristic part, for the input medical image data. and a portion of the medical image detected by a second characteristic region detection process using a second pattern different from the first pattern indicating the characteristic region with respect to the input medical image data. , a portion of the medical image excluding a portion of the medical image commonly detected in the first characteristic region detection process and the second characteristic region detection process is a characteristic region; is determined to be included,
The ultrasonic diagnostic apparatus according to claim 1.
前記判別部は、前記超音波走査に対してリアルタイムで判別結果を導出するのか、又は、前記超音波走査よりも後に実行される後処理として判別結果を導出するのかに応じて、判別結果を導出するための複数の種類の導出処理の中から、判別結果を導出する際の導出処理を選択する、
請求項1に記載の超音波診断装置。 further comprising a collection unit that collects a plurality of the medical image data by performing ultrasound scanning on the subject;
The discrimination unit derives a discrimination result depending on whether the discrimination result is derived in real time with respect to the ultrasonic scanning or whether the discrimination result is derived as a post-processing performed after the ultrasonic scanning. Select the derivation process for deriving the discrimination result from among multiple types of derivation processes for
The ultrasonic diagnostic apparatus according to claim 1.
前記記憶部は、前記複数の段階のそれぞれに対応する複数の種類の学習済みモデルを記憶し、
前記判別部は、前記超音波走査に対してリアルタイムで判別結果を導出するのか、又は、前記超音波走査よりも後に実行される後処理として判別結果を導出するのかに応じて、前記複数の種類の学習済みモデルの中から、判別結果を導出する際に用いる学習済みモデルを選択する、
請求項1に記載の超音波診断装置。 further comprising a collection unit that collects a plurality of the medical image data by performing ultrasound scanning on the subject;
The storage unit stores a plurality of types of trained models corresponding to each of the plurality of stages,
The discrimination unit determines the plurality of types depending on whether the discrimination result is derived in real time with respect to the ultrasonic scan or whether the discrimination result is derived as post-processing performed after the ultrasonic scan. Select a trained model to use when deriving the discrimination result from among the trained models of
The ultrasonic diagnostic apparatus according to claim 1.
前記医用画像データと、前記医用画像データに描出される特徴部位に関する判別結果とを対応付けて学習することにより、入力された医用画像データに描出される被検体の特徴部位に関する判別結果を出力する判別処理を実行する際に用いられる学習済みモデルを、複数の段階のそれぞれにおいて生成する生成部と、
を備え、
前記複数の段階のそれぞれにおいて実行される判別処理は、他の段階で実行される判別処理とは異なる、
超音波診断装置。 a collection unit that collects medical image data depicting characteristic parts of the subject;
By associating and learning the medical image data and the discrimination results regarding the characteristic parts depicted in the medical image data, the discrimination results regarding the characteristic parts of the subject depicted in the input medical image data are output. a generation unit that generates a trained model used in executing the discrimination process in each of the plurality of stages;
Equipped with
The determination processing performed in each of the plurality of stages is different from the determination processing performed in other stages,
Ultrasound diagnostic equipment.
請求項13に記載の超音波診断装置。 The generation unit generates medical image data corresponding to a predetermined discrimination result output from a discrimination process corresponding to one stage among the plurality of stages, and a discrimination result corresponding to a stage next to the first stage. Generate a trained model corresponding to the next stage of the first stage by learning in association with
The ultrasonic diagnostic apparatus according to claim 13.
請求項14に記載の超音波診断装置。 The generation unit learns by associating and learning medical image data corresponding to a predetermined discrimination result output from the discrimination process corresponding to the next stage of the first stage, and the predetermined discrimination result. Generate a trained model corresponding to the first stage,
The ultrasonic diagnostic apparatus according to claim 14.
前記複数の学習済みモデルのうち少なくとも1つの学習済みモデルを用いて、前記少なくとも1つの学習済みモデルに対応する判別処理を実行することにより、前記被検体の特徴部位に関する判別結果を導出する判別部と、
を備え、
前記判別部は、前記複数の段階のそれぞれにおいて、他の段階で実行される判別処理とは異なる判別処理を実行する、
解析装置。 When each of the plurality of trained models corresponding to each of the plurality of stages executes each of the plurality of discrimination processes that outputs discrimination results regarding the characteristic parts of the subject depicted in the input medical image data. a storage unit that stores each of the plurality of trained models used for the
A discriminator that derives a discrimination result regarding a characteristic part of the subject by executing a discrimination process corresponding to the at least one learned model using at least one learned model among the plurality of learned models. and,
Equipped with
The discrimination unit executes a discrimination process in each of the plurality of stages that is different from discrimination processes executed in other stages.
Analysis device.
前記医用画像データと、前記医用画像データに描出される特徴部位に関する判別結果とを対応付けて学習することにより、入力された医用画像データに描出される被検体の特徴部位に関する判別結果を出力する判別処理を実行する際に用いられる学習済みモデルを、複数の段階のそれぞれにおいて生成する生成部と、
を備え、
前記複数の段階のそれぞれにおいて実行される判別処理は、他の段階で実行される判別処理とは異なる、
解析装置。 an acquisition unit that acquires medical image data depicting characteristic parts of the subject;
By associating and learning the medical image data and the discrimination results regarding the characteristic parts depicted in the medical image data, the discrimination results regarding the characteristic parts of the subject depicted in the input medical image data are output. a generation unit that generates a trained model used in executing the discrimination process in each of the plurality of stages;
Equipped with
The determination processing performed in each of the plurality of stages is different from the determination processing performed in other stages,
Analysis device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023148511A JP2023160986A (en) | 2019-06-28 | 2023-09-13 | Ultrasonic diagnostic device and analysis device |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019121963A JP2021007512A (en) | 2019-06-28 | 2019-06-28 | Ultrasonic diagnostic device and analysis device |
JP2023148511A JP2023160986A (en) | 2019-06-28 | 2023-09-13 | Ultrasonic diagnostic device and analysis device |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019121963A Division JP2021007512A (en) | 2019-06-28 | 2019-06-28 | Ultrasonic diagnostic device and analysis device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023160986A true JP2023160986A (en) | 2023-11-02 |
JP2023160986A5 JP2023160986A5 (en) | 2024-03-01 |
Family
ID=74198388
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019121963A Pending JP2021007512A (en) | 2019-06-28 | 2019-06-28 | Ultrasonic diagnostic device and analysis device |
JP2023148511A Pending JP2023160986A (en) | 2019-06-28 | 2023-09-13 | Ultrasonic diagnostic device and analysis device |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019121963A Pending JP2021007512A (en) | 2019-06-28 | 2019-06-28 | Ultrasonic diagnostic device and analysis device |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP2021007512A (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022181748A1 (en) * | 2021-02-26 | 2022-09-01 | 富士フイルム株式会社 | Medical image processing device, endoscope system, medical image processing method, and medical image processing program |
JP2022172565A (en) * | 2021-05-06 | 2022-11-17 | コニカミノルタ株式会社 | ULTRASOUND IMAGE DIAGNOSTIC DEVICE, CLASSIFIER CHANGE METHOD AND CLASSIFIER CHANGE PROGRAM |
JP7707652B2 (en) * | 2021-05-24 | 2025-07-15 | コニカミノルタ株式会社 | IMAGE GENERATION DEVICE, IMAGE GENERATION METHOD, AND PROGRAM |
JP7640366B2 (en) * | 2021-05-26 | 2025-03-05 | 富士フイルム株式会社 | Medical image processing equipment |
WO2024004524A1 (en) * | 2022-06-29 | 2024-01-04 | 富士フイルム株式会社 | Diagnosis assistance device, ultrasound endoscope, diagnosis assistance method, and program |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011167330A (en) * | 2010-02-18 | 2011-09-01 | Ge Medical Systems Global Technology Co Llc | Ultrasonic diagnostic apparatus |
JP2012091042A (en) * | 2003-05-08 | 2012-05-17 | Hitachi Medical Corp | Ultrasonic diagnostic apparatus |
JP2014133133A (en) * | 2013-01-10 | 2014-07-24 | Samsung Electronics Co Ltd | Lesion diagnosis apparatus and method |
JP2015154918A (en) * | 2014-02-19 | 2015-08-27 | 三星電子株式会社Samsung Electronics Co.,Ltd. | Apparatus and method for lesion detection |
JP2015202373A (en) * | 2014-04-16 | 2015-11-16 | 株式会社東芝 | Ultrasonic diagnostic device and control program |
US20160048737A1 (en) * | 2014-08-14 | 2016-02-18 | Samsung Electronics Co., Ltd. | Apparatus and method for adaptive computer-aided diagnosis |
WO2016088758A1 (en) * | 2014-12-01 | 2016-06-09 | 国立研究開発法人産業技術総合研究所 | Ultrasound examination system and ultrasound examination method |
JP2019022693A (en) * | 2018-09-21 | 2019-02-14 | 株式会社日立製作所 | Ultrasonic diagnostic device, and operation method for ultrasonic diagnostic device |
JP2019076699A (en) * | 2017-10-26 | 2019-05-23 | 株式会社日立製作所 | Nodule detection with false positive reduction |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7034625B2 (en) * | 2016-11-25 | 2022-03-14 | キヤノン株式会社 | Photoacoustic device, control method, program |
-
2019
- 2019-06-28 JP JP2019121963A patent/JP2021007512A/en active Pending
-
2023
- 2023-09-13 JP JP2023148511A patent/JP2023160986A/en active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012091042A (en) * | 2003-05-08 | 2012-05-17 | Hitachi Medical Corp | Ultrasonic diagnostic apparatus |
JP2011167330A (en) * | 2010-02-18 | 2011-09-01 | Ge Medical Systems Global Technology Co Llc | Ultrasonic diagnostic apparatus |
JP2014133133A (en) * | 2013-01-10 | 2014-07-24 | Samsung Electronics Co Ltd | Lesion diagnosis apparatus and method |
JP2015154918A (en) * | 2014-02-19 | 2015-08-27 | 三星電子株式会社Samsung Electronics Co.,Ltd. | Apparatus and method for lesion detection |
JP2015202373A (en) * | 2014-04-16 | 2015-11-16 | 株式会社東芝 | Ultrasonic diagnostic device and control program |
US20160048737A1 (en) * | 2014-08-14 | 2016-02-18 | Samsung Electronics Co., Ltd. | Apparatus and method for adaptive computer-aided diagnosis |
WO2016088758A1 (en) * | 2014-12-01 | 2016-06-09 | 国立研究開発法人産業技術総合研究所 | Ultrasound examination system and ultrasound examination method |
JP2019076699A (en) * | 2017-10-26 | 2019-05-23 | 株式会社日立製作所 | Nodule detection with false positive reduction |
JP2019022693A (en) * | 2018-09-21 | 2019-02-14 | 株式会社日立製作所 | Ultrasonic diagnostic device, and operation method for ultrasonic diagnostic device |
Also Published As
Publication number | Publication date |
---|---|
JP2021007512A (en) | 2021-01-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7230255B2 (en) | Analysis device and analysis program | |
JP4745133B2 (en) | Ultrasonic diagnostic apparatus, medical image processing apparatus, and medical image processing program | |
US12133768B2 (en) | Ultrasonic diagnostic apparatus, medical imaging apparatus, training device, ultrasonic image display method, and storage medium | |
JP6462340B2 (en) | Ultrasonic diagnostic apparatus, image processing apparatus, and image processing method | |
JP7461530B2 (en) | Ultrasound diagnostic device and puncture support program | |
JP2023160986A (en) | Ultrasonic diagnostic device and analysis device | |
CN106963419B (en) | Analysis device | |
JP7490839B2 (en) | Analysis device and analysis program | |
JP7309355B2 (en) | Medical image generation device and medical image generation program | |
US11337674B2 (en) | Ultrasonography apparatus and control method | |
CN111839583B (en) | Ultrasonic diagnostic apparatus and analysis apparatus | |
EP3378405A1 (en) | Volume rendered ultrasound imaging | |
JP7282564B2 (en) | Medical diagnostic device, medical image processing device, and image processing program | |
US11850101B2 (en) | Medical image diagnostic apparatus, medical image processing apparatus, and medical image processing method | |
JP5823184B2 (en) | Ultrasonic diagnostic apparatus, medical image processing apparatus, and medical image processing program | |
JP2021049129A (en) | Ultrasound diagnostic device and image processing device | |
US20220079553A1 (en) | Ultrasound diagnosis apparatus, measurement condition setting method, and non-transitory computer-readable storage medium | |
KR20160096442A (en) | Untrasound dianognosis apparatus and operating method thereof | |
JP2013099386A (en) | Ultrasonic diagnostic apparatus and medical image processing apparatus | |
US20250072869A1 (en) | Ultrasonic diagnostic apparatus, method, and storage medium | |
JP4966226B2 (en) | Ultrasonic image processing apparatus and method, and program | |
US12059305B2 (en) | Ultrasonic diagnostic device, medical image processing device, and medical image processing method | |
JP2023148356A (en) | Medical information processing device, ultrasound diagnostic device, and learning data generation method | |
JP2022074921A (en) | Medical image processing equipment and medical image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231013 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240221 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240517 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240605 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240802 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240911 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20241111 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20241211 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250311 |