[go: up one dir, main page]

JP2023160986A - Ultrasonic diagnostic device and analysis device - Google Patents

Ultrasonic diagnostic device and analysis device Download PDF

Info

Publication number
JP2023160986A
JP2023160986A JP2023148511A JP2023148511A JP2023160986A JP 2023160986 A JP2023160986 A JP 2023160986A JP 2023148511 A JP2023148511 A JP 2023148511A JP 2023148511 A JP2023148511 A JP 2023148511A JP 2023160986 A JP2023160986 A JP 2023160986A
Authority
JP
Japan
Prior art keywords
discrimination
image data
function
medical image
ultrasound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023148511A
Other languages
Japanese (ja)
Other versions
JP2023160986A5 (en
Inventor
優子 高田
Yuko Takada
正毅 渡辺
Masaki Watanabe
泰徳 本庄
Yasunori Honjo
悠 五十嵐
Yu Igarashi
啓介 宮木
Keisuke Miyagi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to JP2023148511A priority Critical patent/JP2023160986A/en
Publication of JP2023160986A publication Critical patent/JP2023160986A/en
Publication of JP2023160986A5 publication Critical patent/JP2023160986A5/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

To accurately obtain a discrimination result for a feature part.SOLUTION: An ultrasonic diagnostic device comprises a storage unit and a discrimination unit. The storage unit stores each of a plurality of learned models that corresponds to each of a plurality of stages and is used when executing each of a plurality of pieces of discrimination processing for outputting a discrimination result for a feature part of a subject drawn in input medical image data. The discrimination unit derives the discrimination result for the feature part of the subject by executing the discrimination processing corresponding to at least one learned model by using at least one learned model of the plurality of learned models. The discrimination unit executes the different discrimination processing from the discrimination processing executed in other stages in each of the plurality of stages.SELECTED DRAWING: Figure 1

Description

本発明の実施形態は、超音波診断装置及び解析装置に関する。 Embodiments of the present invention relate to an ultrasonic diagnostic device and an analysis device.

超音波診断装置は、超音波走査に対してリアルタイムで生成した超音波画像データにより示される超音波画像をリアルタイムで表示したり、過去の超音波走査により得られた超音波画像データにより示される超音波画像を表示したりする。超音波診断装置のリアルタイム性は、他の医用画像診断装置のリアルタイム性よりも優れており、大きな利点である。また、医用画像診断装置により生成された医用画像中の特徴的な部位(特徴部位)を自動的に検出するCAD(Computer Aided Detection)機能が知られている。 Ultrasonic diagnostic equipment displays in real time ultrasound images shown by ultrasound image data generated in real time in response to ultrasound scans, or displays ultrasound images shown by ultrasound image data obtained from past ultrasound scans. Display sound wave images. The real-time performance of ultrasound diagnostic equipment is superior to that of other medical image diagnostic equipment, and is a major advantage. Furthermore, a CAD (Computer Aided Detection) function is known that automatically detects a characteristic part (characteristic part) in a medical image generated by a medical image diagnostic apparatus.

米国特許第9674447号明細書US Patent No. 9,674,447 米国特許出願公開第2015/0294457号明細書US Patent Application Publication No. 2015/0294457 米国特許出願公開第2018/0025112号明細書US Patent Application Publication No. 2018/0025112 米国特許出願公開第2007/0118399号明細書US Patent Application Publication No. 2007/0118399 米国特許出願公開第2004/0122790号明細書US Patent Application Publication No. 2004/0122790

本発明が解決しようとする課題は、特徴部位に関する判別結果を精度よく得ることができる超音波診断装置及び解析装置を提供することである。 The problem to be solved by the present invention is to provide an ultrasonic diagnostic apparatus and an analysis apparatus that can accurately obtain discrimination results regarding characteristic parts.

実施形態の超音波診断装置は、記憶部と、判別部とを備える。記憶部は、複数の段階のそれぞれに対応する複数の学習済みモデルのそれぞれであって、入力された医用画像データに描出される被検体の特徴部位に関する判別結果を出力する複数の判別処理のそれぞれを実行する際に用いられる複数の学習済みモデルのそれぞれを記憶する。判別部は、複数の学習済みモデルのうち少なくとも1つの学習済みモデルを用いて、少なくとも1つの学習済みモデルに対応する判別処理を実行することにより、被検体の特徴部位に関する判別結果を導出する。判別部は、複数の段階のそれぞれにおいて、他の段階で実行される判別処理とは異なる判別処理を実行する。 The ultrasonic diagnostic apparatus of the embodiment includes a storage section and a determination section. The storage unit stores each of the plurality of trained models corresponding to each of the plurality of stages, and each of the plurality of discrimination processes that outputs the discrimination result regarding the characteristic part of the subject depicted in the input medical image data. Stores each of a plurality of trained models used when executing . The discriminator uses at least one learned model among the plurality of learned models to perform a discrimination process corresponding to the at least one learned model, thereby deriving a discrimination result regarding the characteristic part of the subject. In each of the plurality of stages, the determination unit executes a determination process that is different from determination processes performed in other stages.

図1は、第1の実施形態に係る超音波診断システムの構成例を示す図である。FIG. 1 is a diagram showing a configuration example of an ultrasound diagnostic system according to a first embodiment. 図2は、第1の実施形態に係る学習済みモデル生成機能により実行される処理の一例を説明するための図である。FIG. 2 is a diagram for explaining an example of processing executed by the trained model generation function according to the first embodiment. 図3は、第1の実施形態に係る判別機能により実行される処理の一例を説明するための図である。FIG. 3 is a diagram for explaining an example of processing executed by the discrimination function according to the first embodiment. 図4は、第1の実施形態に係る学習時の1段階目の処理及び運用時の1段階目の処理の一例を説明するための図である。FIG. 4 is a diagram for explaining an example of the first stage processing during learning and the first stage processing during operation according to the first embodiment. 図5は、第1の実施形態に係る学習時の2段階目の処理及び運用時の2段階目の処理の一例を説明するための図である。FIG. 5 is a diagram for explaining an example of second-stage processing during learning and second-stage processing during operation according to the first embodiment. 図6は、第1の実施形態に係る学習時の3段階目の処理及び運用時の3段階目の処理の一例を説明するための図である。FIG. 6 is a diagram for explaining an example of the third stage processing during learning and the third stage processing during operation according to the first embodiment. 図7は、第1の実施形態に係る第1の判別処理の一例の流れを示すフローチャートである。FIG. 7 is a flowchart showing an example of the flow of the first determination process according to the first embodiment. 図8は、第1の実施形態に係る判別機能による特徴部位の検出結果の一例を説明するための図である。FIG. 8 is a diagram for explaining an example of detection results of characteristic parts by the discrimination function according to the first embodiment. 図9は、第1の実施形態に係る判別機能による特徴部位の検出結果の一例を説明するための図である。FIG. 9 is a diagram for explaining an example of detection results of characteristic parts by the discrimination function according to the first embodiment. 図10は、第1の実施形態に係る第1の検出処理の結果の一例を示す図である。FIG. 10 is a diagram illustrating an example of the results of the first detection process according to the first embodiment. 図11は、第1の実施形態に係る第2の検出処理の結果の一例を示す図である。FIG. 11 is a diagram illustrating an example of the results of the second detection process according to the first embodiment. 図12は、第1の実施形態に係る超音波診断装置が実行する処理の一例の流れを示すフローチャートである。FIG. 12 is a flowchart showing an example of a process executed by the ultrasound diagnostic apparatus according to the first embodiment. 図13は、第1の実施形態に係るマーカ情報生成機能が実行する処理の一例を説明するための図である。FIG. 13 is a diagram for explaining an example of processing executed by the marker information generation function according to the first embodiment. 図14は、第1の実施形態に係る表示例を示す図である。FIG. 14 is a diagram showing a display example according to the first embodiment. 図15は、第2の実施形態に係る超音波診断装置の構成例を示す図である。FIG. 15 is a diagram illustrating a configuration example of an ultrasonic diagnostic apparatus according to the second embodiment. 図16は、第2の実施形態に係る第2の学習済みモデル及び第2の判別プログラムを生成する処理の一例の流れを示すフローチャートである。FIG. 16 is a flowchart illustrating an example of a process for generating a second trained model and a second discrimination program according to the second embodiment. 図17は、第2の実施形態に係る第3の学習済みモデル及び第3の判別プログラムを生成する処理の一例の流れを示すフローチャートである。FIG. 17 is a flowchart illustrating an example of a process for generating a third trained model and a third discrimination program according to the second embodiment. 図18は、第1の実施形態及び第2の実施形態の変形例2に係る超音波診断装置が実行する処理の一例の流れを示すフローチャートである。FIG. 18 is a flowchart showing an example of a process executed by the ultrasound diagnostic apparatus according to the second modification of the first embodiment and the second embodiment. 図19は、第1の実施形態及び第2の実施形態の変形例3に係る第1の判別処理の一例の流れを示すフローチャートである。FIG. 19 is a flowchart showing an example of the flow of the first determination process according to the third modification of the first embodiment and the second embodiment. 図20は、第1の実施形態及び第2の実施形態の変形例3に係る第3の検出処理の結果の一例を示す図である。FIG. 20 is a diagram illustrating an example of the results of the third detection process according to the third modification of the first embodiment and the second embodiment. 図21は、第1の実施形態及び第2の実施形態の変形例3に係る第4の検出処理の結果の一例を示す図である。FIG. 21 is a diagram illustrating an example of the results of the fourth detection process according to the third modification of the first embodiment and the second embodiment. 図22は、第1の実施形態及び第2の実施形態の変形例3に係る第5の検出処理の結果の一例を示す図である。FIG. 22 is a diagram illustrating an example of the results of the fifth detection process according to the third modification of the first embodiment and the second embodiment. 図23は、第1の実施形態及び第2の実施形態の変形例4に係る各種の学習済みモデル及び各種の判別プログラムの一例を説明するための図である。FIG. 23 is a diagram for explaining an example of various learned models and various discrimination programs according to the fourth modification of the first embodiment and the second embodiment. 図24は、第3の実施形態に係る医用画像処理装置300の構成例を示す図である。FIG. 24 is a diagram showing a configuration example of a medical image processing apparatus 300 according to the third embodiment.

以下、図面を参照しながら、実施形態に係る超音波診断装置及び医用画像処理装置を説明する。なお、一つの実施形態又は変形例に記載した内容は、他の実施形態又は他の変形例にも同様に適用されてもよい。 DESCRIPTION OF THE PREFERRED EMBODIMENTS An ultrasound diagnostic apparatus and a medical image processing apparatus according to embodiments will be described below with reference to the drawings. Note that the content described in one embodiment or modification may be similarly applied to other embodiments or other modifications.

(第1の実施形態)
まず、第1の実施形態に係る解析システムの構成例について説明する。図1は、第1の実施形態に係る超音波診断システムの構成例を示す図である。図1に例示するように、第1の実施形態に係る超音波診断システムは、超音波診断装置1と、学習済みモデル生成装置200とを備える。超音波診断装置1と、学習済みモデル生成装置200とは、互いに通信可能に接続されている。第1の実施形態に係る超音波診断システムでは、学習済みモデル生成装置200が各種の学習済みモデルを生成する。また、学習済みモデル生成装置200は、各種の学習に用いたネットワーク構造及び計算パラメータ等の学習条件を記録する。そして、学習済みモデル生成装置200は、生成した各種の学習済みモデル及び記録した各種の学習条件を超音波診断装置1に送信する。そして、超音波診断装置1が、学習済みモデル生成装置200から送信された各種の学習済みモデル及び各種の学習条件を用いて、各種の判別処理を実行する。超音波診断装置1は、ある判別処理を実行する場合には、ある学習済みモデルと、この学習済みモデルに対応する学習条件とを用いる。
(First embodiment)
First, a configuration example of the analysis system according to the first embodiment will be described. FIG. 1 is a diagram showing a configuration example of an ultrasound diagnostic system according to a first embodiment. As illustrated in FIG. 1, the ultrasonic diagnostic system according to the first embodiment includes an ultrasonic diagnostic apparatus 1 and a learned model generating apparatus 200. The ultrasonic diagnostic apparatus 1 and the trained model generation apparatus 200 are communicably connected to each other. In the ultrasonic diagnostic system according to the first embodiment, a learned model generation device 200 generates various learned models. Furthermore, the trained model generation device 200 records learning conditions such as network structures and calculation parameters used for various types of learning. Then, the learned model generation device 200 transmits the various types of generated learned models and the recorded various learning conditions to the ultrasound diagnostic device 1. Then, the ultrasonic diagnostic apparatus 1 uses various learned models and various learning conditions transmitted from the learned model generation device 200 to execute various discrimination processes. When performing a certain discrimination process, the ultrasound diagnostic apparatus 1 uses a certain learned model and learning conditions corresponding to this learned model.

学習済みモデル生成装置200は、処理回路201を備える。処理回路201は、例えば、プロセッサにより実現される。処理回路201は、学習済みモデル生成機能201aを有する。 The trained model generation device 200 includes a processing circuit 201 . The processing circuit 201 is realized by, for example, a processor. The processing circuit 201 has a trained model generation function 201a.

学習済みモデル生成機能201aは、超音波画像データに描出される被検体Pの特徴部位に関する判別結果を出力するための判別処理を実行する際に用いられる学習済みモデルを生成する学習時の処理を実行する。なお、以下の説明では、特徴部位が乳腺の腫瘤である場合について説明するが、特徴部位は、これに限られない。 The trained model generation function 201a performs learning processing to generate a trained model to be used when performing a discrimination process to output a discrimination result regarding a characteristic part of the subject P depicted in ultrasound image data. Execute. In addition, although the following description explains the case where a characteristic site|part is a tumor of a mammary gland, a characteristic site|part is not limited to this.

図2は、第1の実施形態に係る学習済みモデル生成機能201aにより実行される処理の一例を説明するための図である。図2に例示するように、学習済みモデル生成機能201aは、学習時の1段階目において、第1の学習済みモデル11aを生成し、第1の学習条件11bを記録する。また、学習済みモデル生成機能201aは、学習時の1段階目の次の2段階目において、第2の学習済みモデル12aを生成し、第2の学習条件12bを記録する。また、学習済みモデル生成機能201aは、学習時の2段階目の次の3段階目において、第3の学習済みモデル13aを生成し、第3の学習条件13bを記録する。学習済みモデル生成機能201aは、第1の学習済みモデル11aと、第2の学習済みモデル12aと、第3の学習済みモデル13aとを非同期で生成する。また、学習済みモデル生成機能201aは、第1の学習条件11bと、第2の学習条件12bと、第3の学習条件13bとを非同期で記録する。学習済みモデル生成機能201aは、生成部の一例である。 FIG. 2 is a diagram for explaining an example of processing executed by the trained model generation function 201a according to the first embodiment. As illustrated in FIG. 2, the trained model generation function 201a generates the first trained model 11a and records the first learning condition 11b in the first stage of learning. Further, the trained model generation function 201a generates the second trained model 12a and records the second learning condition 12b in the second stage following the first stage during learning. Further, the trained model generation function 201a generates a third trained model 13a and records the third learning condition 13b in the third stage following the second stage of learning. The trained model generation function 201a asynchronously generates a first trained model 11a, a second trained model 12a, and a third trained model 13a. Further, the trained model generation function 201a records the first learning condition 11b, the second learning condition 12b, and the third learning condition 13b asynchronously. The trained model generation function 201a is an example of a generation unit.

例えば、第1の学習条件11bは、超音波診断装置1が第1の判別処理を実行する際に使用される計算パラメータ群である。また、第1の学習済みモデル11aは、超音波診断装置1が第1の判別処理を実行する際に用いられる調整済みのパラメータである。第1の判別処理の詳細については後述する。 For example, the first learning condition 11b is a group of calculation parameters used when the ultrasound diagnostic apparatus 1 executes the first discrimination process. Moreover, the first learned model 11a is an adjusted parameter used when the ultrasound diagnostic apparatus 1 executes the first discrimination process. Details of the first discrimination process will be described later.

また、第2の学習条件12bは、超音波診断装置1が第2の判別処理を実行する際に使用される計算パラメータ群である。また、第2の学習済みモデル12aは、超音波診断装置1が第2の判別処理を実行する際に用いられる調整済みのパラメータである。第2の判別処理の詳細については後述する。 Further, the second learning condition 12b is a group of calculation parameters used when the ultrasound diagnostic apparatus 1 executes the second discrimination process. Further, the second learned model 12a is adjusted parameters used when the ultrasound diagnostic apparatus 1 executes the second discrimination process. Details of the second discrimination process will be described later.

また、第3の学習条件13bは、超音波診断装置1が第3の判別処理を実行する際に使用される計算パラメータ群である。また、第3の学習済みモデル13aは、超音波診断装置1が第3の判別処理を実行する際に用いられる調整済みのパラメータである。第3の判別処理の詳細については後述する。 Further, the third learning condition 13b is a group of calculation parameters used when the ultrasound diagnostic apparatus 1 executes the third discrimination process. Further, the third learned model 13a is an adjusted parameter used when the ultrasound diagnostic apparatus 1 executes the third discrimination process. Details of the third discrimination process will be described later.

このように、複数の学習済みモデルのそれぞれ及び複数の学習条件のそれぞれは、複数の段階のそれぞれに対応する。また、複数の学習済みモデルのそれぞれ及び複数の学習条件のそれぞれは、複数の判別処理のそれぞれを実行する際に用いられる。 In this way, each of the plurality of trained models and each of the plurality of learning conditions corresponds to each of the plurality of stages. Further, each of the plurality of trained models and each of the plurality of learning conditions are used when executing each of the plurality of discrimination processes.

図1の説明に戻り、超音波診断装置1は、装置本体100と、超音波プローブ101と、入力装置102と、ディスプレイ103と、速度検出器104とを有する。 Returning to the description of FIG. 1, the ultrasonic diagnostic apparatus 1 includes an apparatus main body 100, an ultrasonic probe 101, an input device 102, a display 103, and a speed detector 104.

超音波プローブ101は、超音波画像データを収集する際に用いられる。超音波プローブ101は、例えば、複数の圧電振動子を有する。複数の圧電振動子は、後述する装置本体100が有する送信回路110から供給される駆動信号に基づき超音波を発生する。また、超音波プローブ101は、被検体Pからの反射波を受信して電気信号(反射波信号)に変換し、反射波信号を装置本体100に送信する。また、超音波プローブ101は、例えば、圧電振動子に設けられる整合層と、圧電振動子から後方への超音波の伝播を防止するバッキング材等を有する。なお、超音波プローブ101は、装置本体100と着脱自在に接続される。 The ultrasound probe 101 is used when collecting ultrasound image data. The ultrasound probe 101 includes, for example, a plurality of piezoelectric vibrators. The plurality of piezoelectric vibrators generate ultrasonic waves based on a drive signal supplied from a transmission circuit 110 included in the device main body 100, which will be described later. Further, the ultrasound probe 101 receives a reflected wave from the subject P, converts it into an electric signal (reflected wave signal), and transmits the reflected wave signal to the apparatus main body 100. Further, the ultrasonic probe 101 includes, for example, a matching layer provided on the piezoelectric vibrator and a backing material that prevents propagation of ultrasonic waves backward from the piezoelectric vibrator. Note that the ultrasonic probe 101 is detachably connected to the apparatus main body 100.

超音波プローブ101から被検体Pに超音波が送信されると、送信された超音波は、被検体Pの体内組織における音響インピーダンスの不連続面で次々と反射され、反射波として超音波プローブ101が有する複数の圧電振動子にて受信される。受信される反射波の振幅は、超音波が反射される不連続面における音響インピーダンスの差に依存する。なお、送信された超音波パルスが、移動している血流や心臓壁等の表面で反射された場合の反射波は、ドプラ効果により、移動体の超音波送信方向に対する速度成分に依存して、周波数偏移を受ける。 When ultrasonic waves are transmitted from the ultrasound probe 101 to the subject P, the transmitted ultrasound waves are successively reflected by acoustic impedance discontinuities in the body tissue of the subject P, and are reflected back to the ultrasound probe 101 as reflected waves. is received by a plurality of piezoelectric vibrators possessed by the camera. The amplitude of the received reflected wave depends on the difference in acoustic impedance at the discontinuity surface from which the ultrasound wave is reflected. Note that when a transmitted ultrasound pulse is reflected from a moving bloodstream or a surface such as a heart wall, the reflected wave depends on the velocity component of the moving object in the ultrasound transmission direction due to the Doppler effect. , subject to frequency deviation.

超音波プローブ101は、装置本体100と着脱可能に設けられる。被検体P内の2次元領域の走査(2次元走査)を行なう場合、超音波診断装置1の操作者は、例えば、複数の圧電振動子が一列で配置された1Dアレイプローブを超音波プローブ101として装置本体100に接続する。1Dアレイプローブは、リニア型超音波プローブ、コンベックス型超音波プローブ、セクタ型超音波プローブ等である。また、被検体P内の3次元領域の走査(3次元走査)を行なう場合、操作者は、例えば、メカニカル4Dプローブや2Dアレイプローブを超音波プローブ101として装置本体100と接続する。メカニカル4Dプローブは、1Dアレイプローブのように一列で配列された複数の圧電振動子を用いて2次元走査が可能であるとともに、複数の圧電振動子を所定の角度(揺動角度)で揺動させることで3次元走査が可能である。また、2Dアレイプローブは、マトリックス状に配置された複数の圧電振動子により3次元走査が可能であるとともに、超音波を集束して送信することで2次元走査が可能である。 The ultrasonic probe 101 is provided detachably from the apparatus main body 100. When scanning a two-dimensional region within the subject P (two-dimensional scanning), the operator of the ultrasound diagnostic apparatus 1, for example, moves a 1D array probe in which a plurality of piezoelectric vibrators are arranged in a row to the ultrasound probe 101. It is connected to the device main body 100 as a. The 1D array probe is a linear type ultrasound probe, a convex type ultrasound probe, a sector type ultrasound probe, or the like. Further, when scanning a three-dimensional region within the subject P (three-dimensional scanning), the operator connects, for example, a mechanical 4D probe or a 2D array probe to the apparatus main body 100 as the ultrasound probe 101. Mechanical 4D probes are capable of two-dimensional scanning using multiple piezoelectric vibrators arranged in a line like a 1D array probe, and they also swing the multiple piezoelectric vibrators at a predetermined angle (swing angle). By doing so, three-dimensional scanning is possible. Furthermore, the 2D array probe is capable of three-dimensional scanning using a plurality of piezoelectric vibrators arranged in a matrix, and is also capable of two-dimensional scanning by focusing and transmitting ultrasonic waves.

入力装置102は、例えば、マウス、キーボード、ボタン、パネルスイッチ、タッチコマンドスクリーン、フットスイッチ、トラックボール、ジョイスティック等の入力手段により実現される。入力装置102は、超音波診断装置1の操作者からの各種設定要求を受け付け、受け付けた各種設定要求を装置本体100に転送する。例えば、入力装置102は、超音波診断装置1の操作者から、超音波画像中の特徴的な部位(特徴部位)を自動的に検出するCAD処理を実行するための指示(実行指示)を受け付け、受け付けた実行指示を装置本体100の処理回路180に送信する。また、操作者は、入力装置102を介して、CAD処理において、特徴部位の検索範囲であるROI(Region Of Interest)を超音波画像に設定することもできる。 The input device 102 is implemented by, for example, an input means such as a mouse, keyboard, button, panel switch, touch command screen, foot switch, trackball, joystick, or the like. The input device 102 receives various setting requests from the operator of the ultrasound diagnostic apparatus 1 and transfers the received various setting requests to the apparatus main body 100. For example, the input device 102 receives an instruction (execution instruction) from an operator of the ultrasound diagnostic apparatus 1 to execute CAD processing that automatically detects a characteristic region (characteristic region) in an ultrasound image. , transmits the received execution instruction to the processing circuit 180 of the apparatus main body 100. Further, the operator can also set a ROI (Region Of Interest), which is a search range for a characteristic part, in the ultrasound image in CAD processing via the input device 102.

ディスプレイ103は、例えば、超音波診断装置1の操作者が入力装置102を用いて各種設定要求を入力するためのGUI(Graphical User Interface)を表示したり、装置本体100において生成された超音波画像データにより示される超音波画像等を表示したりする。ディスプレイ103は、液晶モニタやCRT(Cathode Ray Tube)モニタ等によって実現される。ディスプレイ103は、表示部の一例である。 The display 103 displays, for example, a GUI (Graphical User Interface) for the operator of the ultrasonic diagnostic apparatus 1 to input various setting requests using the input device 102, or displays an ultrasonic image generated in the apparatus main body 100. It also displays ultrasound images and the like indicated by the data. The display 103 is realized by a liquid crystal monitor, a CRT (Cathode Ray Tube) monitor, or the like. Display 103 is an example of a display section.

速度検出器104は、超音波プローブ101に取り付けられて、超音波プローブ101の移動速度(スキャン速度、スキャンスピード)を検出する。そして、速度検出器104は、検出した移動速度を示す検出信号を装置本体100の処理回路180に送信する。例えば、速度検出器104は、磁気センサにより実現される。なお、速度検出器104は、磁気センサに限られず、超音波プローブ101の速度を検出可能な磁気センサ以外の公知のデバイスにより実現されてもよい。 The speed detector 104 is attached to the ultrasound probe 101 and detects the moving speed (scan speed) of the ultrasound probe 101. Then, the speed detector 104 transmits a detection signal indicating the detected moving speed to the processing circuit 180 of the device main body 100. For example, speed detector 104 is realized by a magnetic sensor. Note that the speed detector 104 is not limited to a magnetic sensor, and may be realized by a known device other than a magnetic sensor capable of detecting the speed of the ultrasound probe 101.

装置本体100は、超音波プローブ101から送信される反射波信号に基づいて超音波画像データを生成する。装置本体100は、超音波プローブ101が送信した被検体Pの2次元領域に対応する反射波信号に基づいて2次元の超音波画像データを生成可能である。また、装置本体100は、超音波プローブ101が送信した被検体Pの3次元領域に対応する反射波信号に基づいて3次元の超音波画像データを生成可能である。 The apparatus main body 100 generates ultrasound image data based on reflected wave signals transmitted from the ultrasound probe 101. The apparatus main body 100 can generate two-dimensional ultrasound image data based on a reflected wave signal corresponding to a two-dimensional region of the subject P transmitted by the ultrasound probe 101. Further, the apparatus main body 100 can generate three-dimensional ultrasound image data based on the reflected wave signal corresponding to the three-dimensional region of the subject P transmitted by the ultrasound probe 101.

図1に示すように、装置本体100は、送信回路110と、受信回路120と、Bモード処理回路130と、ドプラ処理回路140と、画像生成回路150と、画像メモリ160と、記憶回路170と、処理回路180とを有する。送信回路110、受信回路120、Bモード処理回路130、ドプラ処理回路140、画像生成回路150、画像メモリ160、記憶回路170及び処理回路180は、互いに通信可能に接続されている。 As shown in FIG. 1, the apparatus main body 100 includes a transmission circuit 110, a reception circuit 120, a B-mode processing circuit 130, a Doppler processing circuit 140, an image generation circuit 150, an image memory 160, and a storage circuit 170. , and a processing circuit 180. The transmission circuit 110, the reception circuit 120, the B-mode processing circuit 130, the Doppler processing circuit 140, the image generation circuit 150, the image memory 160, the storage circuit 170, and the processing circuit 180 are communicably connected to each other.

送信回路110は、処理回路180による制御を受けて、超音波プローブ101から超音波を送信させる。送信回路110は、レートパルサ発生回路と、送信遅延回路と、送信パルサとを有し、超音波プローブ101に駆動信号を供給する。送信回路110は、被検体P内の2次元領域を走査する場合、超音波プローブ101から2次元領域を走査するための超音波ビームを送信させる。また、送信回路110は、被検体P内の3次元領域を走査する場合、超音波プローブ101から3次元領域を走査するための超音波ビームを送信させる。 The transmission circuit 110 causes the ultrasound probe 101 to transmit ultrasound under the control of the processing circuit 180. The transmission circuit 110 includes a rate pulser generation circuit, a transmission delay circuit, and a transmission pulser, and supplies a drive signal to the ultrasound probe 101. When scanning a two-dimensional region within the subject P, the transmitting circuit 110 causes the ultrasound probe 101 to transmit an ultrasound beam for scanning the two-dimensional region. Further, when scanning a three-dimensional region within the subject P, the transmitting circuit 110 causes the ultrasound probe 101 to transmit an ultrasound beam for scanning the three-dimensional region.

レートパルサ発生回路は、所定のレート周波数(PRF:Pulse Repetition Frequency)で、送信超音波(送信ビーム)を形成するためのレートパルスを繰り返し発生する。レートパルスが送信遅延回路を経由することで、異なる送信遅延時間を有した状態で送信パルサに電圧が印加される。例えば、送信遅延回路は、超音波プローブ101から発生される超音波をビーム状に集束して送信指向性を決定するために必要な圧電振動子ごとの送信遅延時間を、レートパルサ発生回路により発生される各レートパルスに対して与える。送信パルサは、かかるレートパルスに基づくタイミングで、超音波プローブ101に駆動信号(駆動パルス)を印加する。なお、送信遅延回路は、各レートパルスに与える送信遅延時間を変化させることで、圧電振動子面からの超音波の送信方向を任意に調整する。 The rate pulsar generation circuit repeatedly generates rate pulses for forming transmission ultrasonic waves (transmission beams) at a predetermined rate frequency (PRF: Pulse Repetition Frequency). As the rate pulses pass through the transmission delay circuit, voltages are applied to the transmission pulsers with different transmission delay times. For example, the transmission delay circuit generates a transmission delay time for each piezoelectric vibrator, which is necessary to focus the ultrasound generated from the ultrasound probe 101 into a beam and determine the transmission directivity, using a rate pulser generation circuit. is given for each rate pulse. The transmission pulser applies a drive signal (drive pulse) to the ultrasound probe 101 at a timing based on the rate pulse. Note that the transmission delay circuit arbitrarily adjusts the transmission direction of the ultrasound from the piezoelectric vibrator surface by changing the transmission delay time given to each rate pulse.

駆動パルスは、送信パルサからケーブルを介して超音波プローブ101内の圧電振動子まで伝達した後に、圧電振動子において電気信号から機械的振動に変換される。この機械的振動によって発生した超音波は、被検体Pの生体内部に送信される。ここで、圧電振動子ごとに異なる送信遅延時間を持った超音波は、集束されて、所定方向に伝搬していく。 The drive pulse is transmitted from the transmitting pulser to the piezoelectric vibrator in the ultrasound probe 101 via the cable, and then converted from an electrical signal into a mechanical vibration in the piezoelectric vibrator. The ultrasonic waves generated by this mechanical vibration are transmitted into the living body of the subject P. Here, the ultrasonic waves having different transmission delay times for each piezoelectric vibrator are focused and propagated in a predetermined direction.

なお、送信回路110は、処理回路180による制御を受けて、所定のスキャンシーケンスを実行するために、送信周波数、送信駆動電圧等を瞬時に変更可能な機能を有する。特に、送信駆動電圧の変更は、瞬間にその値を切り替え可能なリニアアンプ型の発信回路、または、複数の電源ユニットを電気的に切り替える機構によって実現される。 Note that the transmitting circuit 110 has a function of instantaneously changing the transmitting frequency, transmitting drive voltage, etc. in order to execute a predetermined scan sequence under the control of the processing circuit 180. In particular, changing the transmission drive voltage is achieved by a linear amplifier-type oscillation circuit that can instantly switch its value, or by a mechanism that electrically switches multiple power supply units.

超音波プローブ101により送信された超音波の反射波は、超音波プローブ101内部の圧電振動子まで到達した後、圧電振動子において、機械的振動から電気的信号(反射波信号)に変換される。そして、受信回路120は、超音波プローブ101から送信された反射波信号を受信する。受信回路120は、処理回路180による制御を受けて、反射波信号に対して各種処理を行なって反射波データを生成し、生成した反射波データをBモード処理回路130及びドプラ処理回路140に出力する。例えば、受信回路120は、1フレーム分の反射波信号を受信する度に、受信した反射波信号から1フレーム分の反射波データを生成する。受信回路120は、超音波プローブ101から送信された2次元の反射波信号から2次元の反射波データを生成する。また、受信回路120は、超音波プローブ101から送信された3次元の反射波信号から3次元の反射波データを生成する。 After the reflected waves of the ultrasound transmitted by the ultrasound probe 101 reach the piezoelectric vibrator inside the ultrasound probe 101, the mechanical vibrations are converted into electrical signals (reflected wave signals) in the piezoelectric vibrator. . Then, the receiving circuit 120 receives the reflected wave signal transmitted from the ultrasound probe 101. Under the control of the processing circuit 180, the receiving circuit 120 performs various processing on the reflected wave signal to generate reflected wave data, and outputs the generated reflected wave data to the B-mode processing circuit 130 and the Doppler processing circuit 140. do. For example, each time the receiving circuit 120 receives one frame of reflected wave signals, it generates one frame of reflected wave data from the received reflected wave signals. The receiving circuit 120 generates two-dimensional reflected wave data from the two-dimensional reflected wave signal transmitted from the ultrasound probe 101. Further, the receiving circuit 120 generates three-dimensional reflected wave data from the three-dimensional reflected wave signal transmitted from the ultrasound probe 101.

受信回路120は、プリアンプと、A/D(Analog to Digital)変換器と、直交検波回路等を有する。プリアンプは、反射波信号をチャンネルごとに増幅してゲイン調整(ゲイン補正)を行なう。A/D変換器は、ゲイン補正された反射波信号をA/D変換することでゲイン補正された反射波信号をデジタル信号に変換する。直交検波回路は、デジタル信号をベースバンド帯域の同相信号(I信号、I:In-phase)と直交信号(Q信号、Q:Quadrature-phase)とに変換する。そして、直交検波回路は、I信号及びQ信号(IQ信号)を反射波データとしてBモード処理回路130及びドプラ処理回路140に出力する。 The receiving circuit 120 includes a preamplifier, an A/D (Analog to Digital) converter, a quadrature detection circuit, and the like. The preamplifier amplifies the reflected wave signal for each channel and performs gain adjustment (gain correction). The A/D converter converts the gain-corrected reflected wave signal into a digital signal by A/D converting the gain-corrected reflected wave signal. The quadrature detection circuit converts the digital signal into a baseband in-phase signal (I signal, I: In-phase) and a quadrature signal (Q signal, Q: Quadrature-phase). Then, the quadrature detection circuit outputs the I signal and the Q signal (IQ signal) to the B mode processing circuit 130 and the Doppler processing circuit 140 as reflected wave data.

Bモード処理回路130は、処理回路180による制御を受けて、受信回路120から出力された反射波データに対して、対数増幅、包絡線検波処理及び対数圧縮等を行なって、サンプル点ごとの信号強度(振幅強度)が輝度の明るさで表現されるデータ(Bモードデータ)を生成する。例えば、Bモード処理回路130は、1フレーム分の反射波データを受信する度に、受信した反射波データから1フレーム分のBモードデータを生成する。Bモード処理回路130は、生成したBモードデータを画像生成回路150に出力する。Bモード処理回路130は、例えば、プロセッサにより実現される。 Under the control of the processing circuit 180, the B-mode processing circuit 130 performs logarithmic amplification, envelope detection processing, logarithmic compression, etc. on the reflected wave data output from the reception circuit 120, and generates a signal for each sample point. Data (B mode data) in which intensity (amplitude intensity) is expressed by brightness of luminance is generated. For example, each time the B-mode processing circuit 130 receives one frame of reflected wave data, it generates one frame of B-mode data from the received reflected wave data. B-mode processing circuit 130 outputs the generated B-mode data to image generation circuit 150. B-mode processing circuit 130 is realized by, for example, a processor.

ドプラ処理回路140は、処理回路180による制御を受けて、受信回路120から出力された反射波データを周波数解析することで、ドプラ効果に基づく移動体(血流や組織、造影剤エコー成分等)の運動情報を抽出し、抽出した運動情報を示すデータ(ドプラデータ)を生成する。例えば、ドプラ処理回路140は、移動体の運動情報として、平均速度、分散及びパワー等を多点に渡り抽出し、抽出した移動体の運動情報を示すドプラデータを生成する。例えば、ドプラ処理回路140は、1フレーム分の反射波データを受信する度に、受信した反射波データから1フレーム分のドプラデータを生成する。ドプラ処理回路140は、生成したドプラデータを画像生成回路150に出力する。ドプラ処理回路140は、例えば、プロセッサにより実現される。 The Doppler processing circuit 140 performs frequency analysis on the reflected wave data output from the receiving circuit 120 under the control of the processing circuit 180 to detect moving objects (blood flow, tissues, contrast agent echo components, etc.) based on the Doppler effect. The motion information is extracted, and data (Doppler data) indicating the extracted motion information is generated. For example, the Doppler processing circuit 140 extracts average velocity, dispersion, power, etc. at multiple points as motion information of the moving object, and generates Doppler data indicating the extracted motion information of the moving object. For example, each time the Doppler processing circuit 140 receives one frame of reflected wave data, it generates one frame of Doppler data from the received reflected wave data. The Doppler processing circuit 140 outputs the generated Doppler data to the image generation circuit 150. Doppler processing circuit 140 is realized by, for example, a processor.

また、上記のドプラ処理回路140の機能を用いて、本実施形態に係る超音波診断装置1は、カラーフローマッピング法(CFM:Color Flow Mapping)とも呼ばれるカラードプラ法を実行可能である。CFM法では、超音波の送受信が複数の走査線上で複数回行なわれる。そして、CFM法では、同一位置のデータ列に対してMTI(Moving Target Indicator)フィルタを掛けることで、静止している組織、或いは、動きの遅い組織に由来する信号(クラッタ信号)を抑制して、血流に由来する信号を抽出する。そして、CFM法では、この血流信号から血流の速度、血流の分散、血流のパワー等の血流情報を推定する。後述する画像生成回路150は、推定結果の分布を、例えば、2次元でカラー表示した超音波画像データ(カラードプラ画像データ)を生成する。そして、ディスプレイ103は、カラードプラ画像データが示すカラードプラ画像を表示する。 Further, by using the function of the Doppler processing circuit 140 described above, the ultrasound diagnostic apparatus 1 according to the present embodiment can perform a color Doppler method also called a color flow mapping method (CFM). In the CFM method, ultrasonic waves are transmitted and received multiple times on multiple scanning lines. In the CFM method, a moving target indicator (MTI) filter is applied to the data string at the same position to suppress signals (clutter signals) originating from stationary or slow-moving tissues. , extracting signals originating from blood flow. In the CFM method, blood flow information such as blood flow velocity, blood flow dispersion, and blood flow power is estimated from this blood flow signal. An image generation circuit 150, which will be described later, generates ultrasound image data (color Doppler image data) in which the distribution of the estimation results is displayed in two-dimensional color, for example. Then, the display 103 displays a color Doppler image indicated by the color Doppler image data.

Bモード処理回路130及びドプラ処理回路140は、2次元の反射波データ及び3次元の反射波データの両方について処理可能である。 The B-mode processing circuit 130 and the Doppler processing circuit 140 are capable of processing both two-dimensional reflected wave data and three-dimensional reflected wave data.

画像生成回路150は、処理回路180による制御を受けて、Bモード処理回路130及びドプラ処理回路140が出力した各種のデータ(Bモードデータ及びドプラデータ)から超音波画像データを生成する。例えば、画像生成回路150は、Bモード処理回路130及びドプラ処理回路140から出力された1フレーム分の各種のデータを受信する度に、受信した各種のデータから1フレーム分の超音波画像データを生成する。すなわち、画像生成回路150は、超音波走査に対してリアルタイムで時系列に沿った複数の超音波画像データを所定のフレームレートで生成する。このようにして、本実施形態では、超音波プローブ101、受信回路120、Bモード処理回路130、ドプラ処理回路140及び画像生成回路150が、リアルタイムで、時系列に沿った複数の超音波画像データを所定のフレームレートで収集する。超音波画像データは、超音波プローブ101により行われた超音波走査により得られた反射波信号に基づくデータである。超音波プローブ101、受信回路120、Bモード処理回路130、ドプラ処理回路140及び画像生成回路150は、収集部の一例である。また、超音波画像データは、医用画像データの一例である。 The image generation circuit 150 generates ultrasound image data from various data (B-mode data and Doppler data) output by the B-mode processing circuit 130 and the Doppler processing circuit 140 under the control of the processing circuit 180. For example, every time the image generation circuit 150 receives one frame of various data output from the B-mode processing circuit 130 and the Doppler processing circuit 140, the image generation circuit 150 generates one frame of ultrasound image data from the received various data. generate. That is, the image generation circuit 150 generates a plurality of pieces of ultrasound image data in time series at a predetermined frame rate in real time with respect to ultrasound scanning. In this way, in the present embodiment, the ultrasound probe 101, the receiving circuit 120, the B-mode processing circuit 130, the Doppler processing circuit 140, and the image generation circuit 150 generate multiple ultrasound image data in real time in chronological order. is collected at a predetermined frame rate. The ultrasound image data is data based on reflected wave signals obtained by ultrasound scanning performed by the ultrasound probe 101. The ultrasound probe 101, the receiving circuit 120, the B-mode processing circuit 130, the Doppler processing circuit 140, and the image generation circuit 150 are examples of the acquisition section. Further, ultrasound image data is an example of medical image data.

そして、画像生成回路150は、リアルタイムで生成された時系列に沿った複数の超音波画像データを、画像メモリ160に記憶させる。具体例を挙げて説明すると、画像生成回路150は、1フレーム分の超音波画像データを生成する度に、生成した超音波画像データを画像メモリ160に記憶させる。例えば、超音波走査により得られた時系列に沿った複数の超音波画像データのうち、1番目に生成された超音波画像データは、1フレーム目の超音波画像データと称される。同様に、N(Nは、1以上の整数)番目に生成された超音波画像データは、Nフレーム目の超音波画像データと称される。 Then, the image generation circuit 150 causes the image memory 160 to store a plurality of chronologically generated ultrasonic image data in real time. To explain with a specific example, the image generation circuit 150 stores the generated ultrasound image data in the image memory 160 every time it generates one frame of ultrasound image data. For example, among a plurality of chronologically generated ultrasound image data obtained by ultrasound scanning, the ultrasound image data generated first is referred to as the first frame ultrasound image data. Similarly, the Nth (N is an integer of 1 or more) generated ultrasound image data is referred to as the Nth frame ultrasound image data.

画像生成回路150は、プロセッサにより実現される。ここで、画像生成回路150は、超音波走査の走査線信号列を、テレビ等に代表されるビデオフォーマットの走査線信号列に変換(スキャンコンバート)し、表示用の超音波画像データを生成する。例えば、画像生成回路150は、超音波プローブ101による超音波の走査形態に応じて座標変換を行なうことで、表示用の超音波画像データを生成する。また、画像生成回路150は、スキャンコンバート以外に種々の画像処理として、例えば、スキャンコンバート後の複数の画像フレームを用いて、輝度の平均値画像を再生成する画像処理(平滑化処理)や、画像内で微分フィルタを用いる画像処理(エッジ強調処理)等を行なう。また、画像生成回路150は、超音波画像データに、種々のパラメータの文字情報、目盛り、ボディーマーク等を合成する。 Image generation circuit 150 is realized by a processor. Here, the image generation circuit 150 converts (scan convert) the scanning line signal sequence of ultrasound scanning into a scanning line signal sequence of a video format typified by television etc., and generates ultrasound image data for display. . For example, the image generation circuit 150 generates ultrasound image data for display by performing coordinate transformation in accordance with the scanning form of ultrasound by the ultrasound probe 101. In addition to scan conversion, the image generation circuit 150 performs various types of image processing, such as image processing (smoothing processing) that regenerates an average luminance image using a plurality of image frames after scan conversion; Performs image processing (edge enhancement processing), etc. using a differential filter within the image. Further, the image generation circuit 150 synthesizes text information of various parameters, scales, body marks, etc. to the ultrasound image data.

また、画像生成回路150は、Bモード処理回路130により生成された3次元のBモードデータに対して座標変換を行なうことで、3次元Bモード画像データを生成する。また、画像生成回路150は、ドプラ処理回路140により生成された3次元のドプラデータに対して座標変換を行なうことで、3次元ドプラ画像データを生成する。すなわち、画像生成回路150は、「3次元のBモード画像データ及び3次元ドプラ画像データ」を「3次元超音波画像データ(ボリュームデータ)」として生成する。そして、画像生成回路150は、ボリュームデータをディスプレイ103にて表示するための各種の2次元画像データを生成するために、ボリュームデータに対して様々なレンダリング処理を行なう。 Further, the image generation circuit 150 generates three-dimensional B-mode image data by performing coordinate transformation on the three-dimensional B-mode data generated by the B-mode processing circuit 130. Further, the image generation circuit 150 generates three-dimensional Doppler image data by performing coordinate transformation on the three-dimensional Doppler data generated by the Doppler processing circuit 140. That is, the image generation circuit 150 generates "three-dimensional B-mode image data and three-dimensional Doppler image data" as "three-dimensional ultrasound image data (volume data)." The image generation circuit 150 then performs various rendering processes on the volume data in order to generate various types of two-dimensional image data for displaying the volume data on the display 103.

Bモードデータ及びドプラデータは、スキャンコンバート処理前の超音波画像データであり、画像生成回路150が生成するデータは、スキャンコンバート処理後の表示用の超音波画像データである。なお、Bモードデータ及びドプラデータは、生データ(Raw Data)とも呼ばれる。 The B-mode data and Doppler data are ultrasound image data before scan conversion processing, and the data generated by the image generation circuit 150 is ultrasound image data for display after scan conversion processing. Note that B-mode data and Doppler data are also called raw data.

画像メモリ160は、画像生成回路150により生成された各種の画像データを記憶するメモリである。また、画像メモリ160は、Bモード処理回路130及びドプラ処理回路140により生成されたデータも記憶する。画像メモリ160が記憶するBモードデータやドプラデータは、例えば、診断の後に操作者が呼び出すことが可能となっており、画像生成回路150を経由して表示用の超音波画像データとなる。例えば、画像メモリ160は、RAM、フラッシュメモリ等の半導体メモリ素子、ハードディスク又は光ディスクによって実現される。 The image memory 160 is a memory that stores various image data generated by the image generation circuit 150. Image memory 160 also stores data generated by B-mode processing circuit 130 and Doppler processing circuit 140. The B-mode data and Doppler data stored in the image memory 160 can be called up by the operator after diagnosis, for example, and become ultrasound image data for display via the image generation circuit 150. For example, the image memory 160 is implemented by a RAM, a semiconductor memory device such as a flash memory, a hard disk, or an optical disk.

記憶回路170は、超音波送受信、画像処理及び表示処理を行なうための制御プログラム、診断情報(例えば、患者ID、医師の所見等)、並びに、診断プロトコル及び各種ボディーマーク等の各種データを記憶する。また、記憶回路170は、必要に応じて、画像メモリ160が記憶するデータの保管等にも使用される。例えば、記憶回路170は、フラッシュメモリ等の半導体メモリ素子、ハードディスク又は光ディスクによって実現される。記憶回路170は、記憶部の一例である。 The storage circuit 170 stores control programs for transmitting and receiving ultrasound waves, image processing, and display processing, diagnostic information (e.g., patient ID, doctor's findings, etc.), and various data such as diagnostic protocols and various body marks. . Furthermore, the storage circuit 170 is also used for storing data stored in the image memory 160, etc., as necessary. For example, the storage circuit 170 is realized by a semiconductor memory device such as a flash memory, a hard disk, or an optical disk. The memory circuit 170 is an example of a memory section.

処理回路180は、超音波診断装置1の処理全体を制御する。処理回路180は、例えば、プロセッサにより実現される。処理回路180は、制御機能181、速度検出機能182、取得機能183、判別機能184、マーカ情報生成機能185及び表示制御機能186の各処理機能を有する。 The processing circuit 180 controls the entire processing of the ultrasound diagnostic apparatus 1. The processing circuit 180 is realized by, for example, a processor. The processing circuit 180 has a control function 181, a speed detection function 182, an acquisition function 183, a discrimination function 184, a marker information generation function 185, and a display control function 186.

ここで、例えば、処理回路180が有する各処理機能は、コンピュータによって実行可能なプログラムの形態で記憶回路170に記憶される。図1に示す処理回路180の構成要素である制御機能181、速度検出機能182、取得機能183、判別機能184、マーカ情報生成機能185及び表示制御機能186の各処理機能は、コンピュータによって実行可能なプログラムの形態で記憶回路170に記憶されている。処理回路180は、各プログラムを記憶回路170から読み出し、読み出された各プログラムを実行することで、各プログラムに対応する機能を実現する。換言すると、各プログラムを読み出した状態の処理回路180は、図1の処理回路180内に示された各機能を有することとなる。 Here, for example, each processing function that the processing circuit 180 has is stored in the storage circuit 170 in the form of a computer-executable program. The processing functions of the control function 181, speed detection function 182, acquisition function 183, discrimination function 184, marker information generation function 185, and display control function 186, which are the components of the processing circuit 180 shown in FIG. 1, can be executed by a computer. It is stored in the storage circuit 170 in the form of a program. The processing circuit 180 reads each program from the storage circuit 170 and executes each read program, thereby realizing a function corresponding to each program. In other words, the processing circuit 180 in a state where each program is read has each function shown in the processing circuit 180 of FIG.

上記説明において用いた「プロセッサ」という文言は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、若しくは、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、又は、フィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサは、例えば、記憶回路170に保存されたプログラムを読み出し実行することで機能を実現する。なお、記憶回路170にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。なお、本実施形態の各プロセッサは、プロセッサごとに単一の回路として構成される場合に限らず、複数の独立した回路を組み合わせて1つのプロセッサとして構成し、その機能を実現するようにしてもよい。更に、図1における複数の構成要素を1つのプロセッサへ統合してその機能を実現するようにしてもよい。以下の説明で用いられる「プロセッサ」という文言についても同様である。 The term "processor" used in the above description refers to, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an Application Specific Integrated Circuit (ASIC), or a programmable logic device (for example, It means a circuit such as a simple programmable logic device (SPLD), a complex programmable logic device (CPLD), or a field programmable gate array (FPGA). The processor realizes its functions by, for example, reading and executing a program stored in the storage circuit 170. Note that instead of storing the program in the storage circuit 170, the program may be directly incorporated into the circuit of the processor. In this case, the processor realizes its functions by reading and executing a program built into the circuit. Note that each processor of this embodiment is not limited to being configured as a single circuit for each processor, but may also be configured as a single processor by combining multiple independent circuits to realize its functions. good. Furthermore, multiple components in FIG. 1 may be integrated into one processor to implement its functions. The same applies to the word "processor" used in the following explanation.

制御機能181は、入力装置102を介して操作者から入力された各種設定要求や、記憶回路170から読込んだ各種データに基づき、送信回路110、受信回路120、Bモード処理回路130、ドプラ処理回路140及び画像生成回路150の処理を制御する。 The control function 181 controls the transmission circuit 110, the reception circuit 120, the B-mode processing circuit 130, and the Doppler processing based on various setting requests input by the operator via the input device 102 and various data read from the storage circuit 170. The processing of the circuit 140 and the image generation circuit 150 is controlled.

速度検出機能182は、速度検出器104から送信される検出信号に基づいて、検出信号が示す超音波プローブ101の移動速度を算出することにより、超音波プローブ101の移動速度を検出する。例えば、速度検出機能182は、所定の時間間隔で、超音波プローブ101の移動速度を検出する。速度検出器104及び速度検出機能182は、検出部の一例である。 The speed detection function 182 detects the moving speed of the ultrasound probe 101 by calculating the moving speed of the ultrasound probe 101 indicated by the detection signal based on the detection signal transmitted from the speed detector 104. For example, the speed detection function 182 detects the moving speed of the ultrasound probe 101 at predetermined time intervals. The speed detector 104 and the speed detection function 182 are examples of a detection unit.

取得機能183は、学習済みモデル生成装置200から送信された第1の学習済みモデル11a、第2の学習済みモデル12a及び第3の学習済みモデル13aを取得する。そして、取得機能183は、取得した第1の学習済みモデル11a、第2の学習済みモデル12a及び第3の学習済みモデル13aを記憶回路170に記憶させる。また、取得機能183は、学習済みモデル生成装置200から送信された第1の学習条件11b、第2の学習条件12b及び第3の学習条件13bを取得する。そして、取得機能183は、取得した第1の学習条件11b、第2の学習条件12b及び第3の学習条件13bを記憶回路170に記憶させる。記憶回路170に記憶された各種の学習済みモデル及び各種の学習条件は、判別機能184が各種の判別処理を行う際に用いられる。 The acquisition function 183 acquires the first trained model 11a, the second trained model 12a, and the third trained model 13a transmitted from the trained model generation device 200. Then, the acquisition function 183 causes the storage circuit 170 to store the acquired first trained model 11a, second trained model 12a, and third trained model 13a. Furthermore, the acquisition function 183 acquires the first learning condition 11b, second learning condition 12b, and third learning condition 13b transmitted from the trained model generation device 200. Then, the acquisition function 183 causes the storage circuit 170 to store the acquired first learning condition 11b, second learning condition 12b, and third learning condition 13b. The various learned models and various learning conditions stored in the storage circuit 170 are used when the discrimination function 184 performs various discrimination processes.

また、取得機能183は、入力装置102を介して操作者から入力されたCAD処理を実行するための指示(実行指示)を受信した場合に、時系列に沿った複数の超音波画像データを取得する。例えば、取得機能183は、実行指示を受信した後に、新たに生成された1フレーム分の超音波画像データが画像メモリ160に記憶される度に、画像メモリ160から、新たに生成された1フレーム分の超音波画像データを取得する。例えば、時系列に沿った複数の超音波画像データは、超音波走査により得られたデータ群である。このような超音波走査は、例えば、操作者により被検体Pの体表に沿って移動された超音波プローブ101の移動により被検体Pの内部の走査領域が移動されながら行われたり、超音波プローブ101が停止した状態で行われたりする。また、以下の説明において、時系列に沿った複数の超音波画像データのそれぞれは、例えば、Bモード画像データである。 Further, when receiving an instruction (execution instruction) to execute CAD processing input from the operator via the input device 102, the acquisition function 183 acquires a plurality of ultrasound image data in chronological order. do. For example, after receiving an execution instruction, the acquisition function 183 acquires one newly generated frame of ultrasound image data from the image memory 160 every time one frame of newly generated ultrasound image data is stored in the image memory 160. Acquire ultrasound image data for minutes. For example, a plurality of chronologically arranged ultrasound image data is a data group obtained by ultrasound scanning. Such ultrasonic scanning is performed, for example, while the scanning area inside the subject P is being moved by the movement of the ultrasonic probe 101 that is moved along the body surface of the subject P by the operator, or while the scanning area inside the subject P is being moved. This may be performed while the probe 101 is stopped. Furthermore, in the following description, each of a plurality of pieces of ultrasound image data in time series is, for example, B-mode image data.

判別機能184は、記憶回路170に記憶された各種の学習済みモデル及び各種の学習条件を用いて、特徴部位に関する判別結果を導出する運用時の処理を実行する。例えば、判別機能184は、新たに生成された1フレーム分の超音波画像データが取得機能183により取得される度に、取得された1フレーム分の超音波画像データを用いて、運用時の処理を実行する。 The determination function 184 uses various learned models and various learning conditions stored in the storage circuit 170 to execute a process during operation of deriving a determination result regarding a characteristic part. For example, every time one newly generated frame of ultrasound image data is acquired by the acquisition function 183, the determination function 184 uses the acquired one frame of ultrasound image data to perform processing during operation. Execute.

図3は、第1の実施形態に係る判別機能184により実行される処理の一例を説明するための図である。図3に例示するように、運用時の1段階目において、判別機能184は、第1の学習済みモデル11a及び第1の学習条件11bを用いて、CAD処理として、超音波画像に特徴部位が含まれるか又は含まれないかを判別し、判別結果(第1の判別結果)を導出する第1の判別処理を実行する。すなわち、判別機能184により超音波画像に特徴部位が含まれると判別された場合には、特徴部位を検出したことになる。また、判別機能184により超音波画像に特徴部位が含まれないと判別された場合には、特徴部位を検出していないこととなる。 FIG. 3 is a diagram for explaining an example of a process executed by the determination function 184 according to the first embodiment. As illustrated in FIG. 3, in the first stage of operation, the discrimination function 184 uses the first trained model 11a and the first learning conditions 11b to identify characteristic parts in the ultrasound image as CAD processing. A first determination process is executed to determine whether the content is included or not, and to derive a determination result (first determination result). That is, if the determining function 184 determines that the ultrasound image includes a characteristic region, this means that a characteristic region has been detected. Furthermore, if the determining function 184 determines that the ultrasound image does not include a characteristic region, it means that no characteristic region has been detected.

また、判別機能184は、運用時の2段階目において、第2の学習済みモデル12a及び第2の学習条件12bを用いて、運用時の1段階目において検出された特徴部位が良性であるか又は悪性であるかを判別し、判別結果(第2の判別結果)を導出する第2の判別処理を実行する。また、判別機能184は、運用時の3段階目において、第3の学習済みモデル13a及び第3の学習条件13bを用いて、運用時の2段階目において悪性と判別された特徴部位の悪性度を判別し、判別結果(第3の判別結果)を導出する第3の判別処理を実行する。例えば、悪性度としては、悪性度Aと、悪性度Aよりも悪性の度合いが高い悪性度Bの2つの悪性度が挙げられる。この場合、判別機能184は、悪性と判別された特徴部位の悪性度が、悪性度Aであるか又は悪性度Bであるかを判別する。以下、判別機能184が、悪性度として、悪性度A及び悪性度Bの2つの悪性度を判別する場合について説明するが、悪性度は、悪性度A及び悪性度Bの2つの悪性度に限られない。判別機能184は、判別部の一例である。 In addition, in the second stage of operation, the determination function 184 uses the second learned model 12a and the second learning condition 12b to determine whether the feature region detected in the first stage of operation is benign. or malignant, and performs a second determination process to derive a determination result (second determination result). In addition, in the third stage of operation, the discrimination function 184 uses the third learned model 13a and the third learning condition 13b to determine the malignancy of the characteristic part that was determined to be malignant in the second stage of operation. A third determination process is performed to determine the determination result (third determination result). For example, the malignancy includes two malignancies: malignancy A and malignancy B, which is higher in malignancy than malignancy A. In this case, the determination function 184 determines whether the degree of malignancy of the characteristic site determined to be malignant is grade A or grade B. A case will be described below in which the discrimination function 184 discriminates between two malignancies, malignancy A and malignancy B. However, the malignancy is limited to two malignancies, malignancy A and malignancy B. I can't do it. The determination function 184 is an example of a determination unit.

図4は、第1の実施形態に係る学習時の1段階目の処理及び運用時の1段階目の処理の一例を説明するための図である。図4に例示するように、学習時の1段階目では、学習済みモデル生成機能201aは、超音波画像データ14と、第1のラベル15との関係を学習することによって、第1の学習済みモデル11aを生成し、第1の学習条件11bを記録する。ここで、第1のラベル15は、超音波画像データ14により示される超音波画像に特徴部位が含まれるか又は含まれないかを示すラベルである。すなわち、学習済みモデル生成機能201aは、超音波画像データ14と第1のラベル15とを対応付けて学習することにより、第1の学習済みモデル11aを生成し、第1の学習条件11bを記録する。超音波画像データ14は、例えば、Bモードデータから生成されたBモード画像データである。超音波画像データ14は、超音波診断装置1又は超音波診断装置1以外の超音波診断装置により生成されたデータである。 FIG. 4 is a diagram for explaining an example of the first stage processing during learning and the first stage processing during operation according to the first embodiment. As illustrated in FIG. 4, in the first stage of learning, the learned model generation function 201a creates the first learned model by learning the relationship between the ultrasound image data 14 and the first label 15. A model 11a is generated and a first learning condition 11b is recorded. Here, the first label 15 is a label indicating whether or not a characteristic region is included in the ultrasound image represented by the ultrasound image data 14. That is, the learned model generation function 201a generates the first learned model 11a by learning the ultrasound image data 14 and the first label 15 in association with each other, and records the first learning condition 11b. do. The ultrasound image data 14 is, for example, B-mode image data generated from B-mode data. The ultrasound image data 14 is data generated by the ultrasound diagnostic apparatus 1 or an ultrasound diagnostic apparatus other than the ultrasound diagnostic apparatus 1.

なお、超音波画像データ14は、エッジ強調及びコントラスト強調等の前処理が施されたBモード画像データであってもよい。また、超音波画像データ14は、例えば、Bモードデータ(Bモードの生データ)であってもよい。また、超音波画像データ14は、カラードプラ画像データであってもよい。また、超音波画像データ14は、ストレインエラストにより得られたFLR(Fat Lesion Ratio)を示す画像データであってもよい。また、超音波画像データ14は、SWE(Shear Wave Elastography)により得られた、走査領域内の複数のサンプル点のそれぞれにおけるせん断速度に応じた画素値が各サンプル点に割り当てられたせん断速度画像データ(shear wave speed image data)であってもよい。また、超音波画像データ14は、超音波診断装置1又は超音波診断装置1以外の超音波診断装置により、ストレインエラスト又はSWEを実行中に得られたBモード画像データであってもよい。 Note that the ultrasound image data 14 may be B-mode image data that has been subjected to preprocessing such as edge enhancement and contrast enhancement. Further, the ultrasound image data 14 may be, for example, B-mode data (B-mode raw data). Further, the ultrasound image data 14 may be color Doppler image data. Further, the ultrasound image data 14 may be image data indicating FLR (Fat Lesion Ratio) obtained by strain elastosis. Further, the ultrasound image data 14 is shear velocity image data obtained by SWE (Shear Wave Elastography), in which pixel values are assigned to each sample point according to the shear velocity at each of a plurality of sample points within the scanning area. (shear wave speed image data). Further, the ultrasound image data 14 may be B-mode image data obtained by the ultrasound diagnostic apparatus 1 or an ultrasound diagnostic apparatus other than the ultrasound diagnostic apparatus 1 while performing strain elastography or SWE.

また、第1のラベル15は、例えば、操作者が、超音波画像データ14により示される超音波画像に特徴部位が含まれるか又は含まれないか判断することにより得られるラベルである。なお、第1のラベル15は、超音波診断装置1又は他の装置により超音波画像データ14に対してCAD処理を施すことにより得られるラベルであってもよい。 Further, the first label 15 is a label obtained by, for example, an operator determining whether or not a characteristic region is included in the ultrasound image represented by the ultrasound image data 14. Note that the first label 15 may be a label obtained by performing CAD processing on the ultrasound image data 14 using the ultrasound diagnostic apparatus 1 or other equipment.

例えば、学習済みモデル生成機能201aは、超音波画像データ14と第1のラベル15の組を学習用データ(教師データ)として機械学習エンジンに入力することによって、機械学習を行う。 For example, the trained model generation function 201a performs machine learning by inputting a set of ultrasound image data 14 and first label 15 to a machine learning engine as learning data (teacher data).

例えば、機械学習エンジンは、ディープラーニング(Deep Learning)や、ニューラルネットワーク(Neural Network)、ロジスティック(Logistic)回帰分析、非線形判別分析、サポートベクターマシン(Support Vector Machine:SVM)、ランダムフォレスト(Random Forest)、ナイーブベイズ(Naive Bayes)等の各種のアルゴリズムを用いて機械学習を行う。 For example, machine learning engines include deep learning, neural networks, logistic regression analysis, nonlinear discriminant analysis, support vector machines (SVM), and random forests. Machine learning is performed using various algorithms such as , Naive Bayes, etc.

このような機械学習の結果として、学習済みモデル生成機能201aは、超音波画像データの入力に対して第1の判別結果を導出するための第1の判別処理において用いられる第1の学習済みモデル11aを生成する。また、上述したような機械学習の結果として、学習済みモデル生成機能201aは、第1の判別処理で計算に用いられる第1の学習条件11bを記録する。そして、学習済みモデル生成機能201aは、生成した第1の学習済みモデル11a及び記録した第1の学習条件11bを超音波診断装置1に送信する。これにより、超音波診断装置1の記憶回路170に第1の学習済みモデル11a及び第1の学習条件11bが記憶される。 As a result of such machine learning, the learned model generation function 201a generates a first learned model used in a first discrimination process to derive a first discrimination result for input ultrasound image data. 11a. Further, as a result of the machine learning described above, the learned model generation function 201a records the first learning condition 11b used for calculation in the first discrimination process. The learned model generation function 201a then transmits the generated first learned model 11a and the recorded first learning condition 11b to the ultrasound diagnostic apparatus 1. As a result, the first learned model 11a and the first learning condition 11b are stored in the storage circuit 170 of the ultrasound diagnostic apparatus 1.

なお、学習済みモデル生成装置200と、超音波診断装置1は、ネットワークを介して接続されていなくてもよい。この場合、学習済みモデル生成装置200により生成された各種の学習済みモデル及び各種の学習条件は、USB(Universal Serial Bus)メモリ等の記憶媒体に記憶される。そして、超音波診断装置1が、記憶媒体に記憶された各種の学習済みモデル及び各種の学習条件を読み出し、読み出した各種の学習済みモデル及び各種の学習条件を記憶回路170に記憶させる。 Note that the trained model generation device 200 and the ultrasound diagnostic device 1 do not need to be connected via a network. In this case, various trained models and various learning conditions generated by the trained model generation device 200 are stored in a storage medium such as a USB (Universal Serial Bus) memory. Then, the ultrasonic diagnostic apparatus 1 reads out various learned models and various learning conditions stored in the storage medium, and stores the read out various learned models and various learning conditions in the storage circuit 170.

次に、運用時の1段階目の処理の一例について説明する。図4に例示するように、運用時の1段階目において、判別機能184は、第1の学習済みモデル11a及び第1の学習条件11bを用いて、超音波画像データ16に示される超音波画像に特徴部位が含まれるか又は含まれないかを判別し、判別結果(第1の判別結果)17を導出する第1の判別処理をCAD処理として実行する。例えば、超音波画像データ16の種類は、超音波画像データ14の種類と同一である。例えば、上述した前処理が施されたBモード画像データ、上述した前処理が施されていないBモード画像データ、Bモードデータ、カラードプラ画像データ、ストレインエラストにより得られたFLRを示す画像データ、せん断速度画像データ、及び、ストレインエラスト又はSWEを実行中に得られたBモード画像データ等が、各種類の超音波画像データとして挙げられる。 Next, an example of the first stage processing during operation will be described. As illustrated in FIG. 4, in the first stage of operation, the discrimination function 184 uses the first learned model 11a and the first learning condition 11b to generate an ultrasound image shown in the ultrasound image data 16. A first discrimination process is performed as a CAD process in which it is determined whether a characteristic part is included or not, and a discrimination result (first discrimination result) 17 is derived. For example, the type of ultrasound image data 16 is the same as the type of ultrasound image data 14. For example, B-mode image data subjected to the above-mentioned preprocessing, B-mode image data not subjected to the above-mentioned preprocessing, B-mode data, color Doppler image data, image data indicating FLR obtained by strain elastography, Examples of the various types of ultrasound image data include shear velocity image data, B-mode image data obtained during strain elastography or SWE, and the like.

例えば、判別機能184は、超音波画像に特徴部位が含まれると判別した場合には、第1の判別結果17として、超音波画像に特徴部位が含まれることを示す情報を出力する。また、判別機能184は、超音波画像に特徴部位が含まれないと判別した場合には、第1の判別結果17として、超音波画像に特徴部位が含まれないことを示す情報を出力する。 For example, when determining that the ultrasound image includes a characteristic region, the determination function 184 outputs, as the first determination result 17, information indicating that the ultrasound image contains the characteristic region. Further, when determining that the ultrasound image does not include the characteristic region, the determination function 184 outputs information indicating that the ultrasound image does not include the characteristic region as the first determination result 17.

図5は、第1の実施形態に係る学習時の2段階目の処理及び運用時の2段階目の処理の一例を説明するための図である。図5に例示するように、学習時の2段階目では、学習済みモデル生成機能201aは、超音波画像データ20と、第2のラベル21との関係を学習することによって、第2の学習済みモデル12aを生成し、第2の学習条件12bを記録する。ここで、第2のラベル21は、超音波画像データ20により示される超音波画像に含まれる特徴部位が悪性であるのか又は良性であるのかを示すラベルである。すなわち、学習済みモデル生成機能201aは、超音波画像データ20と第2のラベル21とを対応付けて学習することにより、第2の学習済みモデル12aを生成し、第2の学習条件12bを記録する。 FIG. 5 is a diagram for explaining an example of second-stage processing during learning and second-stage processing during operation according to the first embodiment. As illustrated in FIG. 5, in the second stage of learning, the learned model generation function 201a learns the relationship between the ultrasound image data 20 and the second label 21, thereby generating the second learned model. A model 12a is generated and a second learning condition 12b is recorded. Here, the second label 21 is a label indicating whether the characteristic region included in the ultrasound image represented by the ultrasound image data 20 is malignant or benign. That is, the learned model generation function 201a generates the second learned model 12a by learning the ultrasound image data 20 and the second label 21 in association with each other, and records the second learning condition 12b. do.

第2の学習済みモデル12aを生成し、第2の学習条件12bを記録する際に用いられる超音波画像データ20は、特徴部位が描出された画像データである。超音波画像データ20は、例えば、Bモードデータから生成されたBモード画像データである。超音波画像データ20は、超音波診断装置1又は超音波診断装置1以外の超音波診断装置により生成されたデータである。 The ultrasound image data 20 used when generating the second trained model 12a and recording the second learning conditions 12b is image data in which characteristic parts are depicted. The ultrasound image data 20 is, for example, B-mode image data generated from B-mode data. The ultrasound image data 20 is data generated by the ultrasound diagnostic apparatus 1 or an ultrasound diagnostic apparatus other than the ultrasound diagnostic apparatus 1.

例えば、学習済みモデル生成機能201aは、超音波画像データ20と第2のラベル21の組を学習用データとして機械学習エンジンに入力することによって、機械学習を行う。 For example, the trained model generation function 201a performs machine learning by inputting a set of ultrasound image data 20 and second label 21 as learning data to a machine learning engine.

このような機械学習の結果として、学習済みモデル生成機能201aは、特徴部位が描出された超音波画像データの入力に対して第2の判別結果を導出するための第2の判別処理において用いられる第2の学習済みモデル12aを生成する。また、上述したような機械学習の結果として、学習済みモデル生成機能201aは、第2の判別処理で計算に用いられる第2の学習条件12bを記録する。そして、学習済みモデル生成機能201aは、生成した第2の学習済みモデル12a及び記録した第2の学習条件12bを超音波診断装置1に送信する。これにより、超音波診断装置1の記憶回路170に第2の学習済みモデル12a及び第2の学習条件12bが記憶される。 As a result of such machine learning, the learned model generation function 201a is used in a second discrimination process to derive a second discrimination result for input ultrasound image data in which characteristic parts are depicted. A second trained model 12a is generated. Further, as a result of the machine learning described above, the learned model generation function 201a records the second learning condition 12b used for calculation in the second discrimination process. The trained model generation function 201a then transmits the generated second trained model 12a and the recorded second learning conditions 12b to the ultrasound diagnostic apparatus 1. As a result, the second learned model 12a and the second learning condition 12b are stored in the storage circuit 170 of the ultrasound diagnostic apparatus 1.

次に、運用時の2段階目の処理の一例について説明する。図5に例示するように、運用時の2段階目において、判別機能184は、第2の学習済みモデル12a及び第2の学習条件12bを用いて、超音波画像データ22の入力に対して、超音波画像データ22に描出された特徴部位が良性であるか又は悪性であるかを判別し、判別結果(第2の判別結果)23を導出する第2の判別処理を実行する。 Next, an example of the second stage processing during operation will be described. As illustrated in FIG. 5, in the second stage of operation, the discrimination function 184 uses the second learned model 12a and the second learning condition 12b to A second discrimination process is executed to determine whether the characteristic region depicted in the ultrasound image data 22 is benign or malignant, and to derive a discrimination result (second discrimination result) 23.

例えば、判別機能184は、超音波画像データ22に描出された特徴部位が良性であると判別した場合には、第2の判別結果23として、特徴部位が良性であることを示す情報を出力する。また、判別機能184は、超音波画像データ22に描出された特徴部位が悪性であると判別した場合には、第2の判別結果23として、特徴部位が悪性であることを示す情報を出力する。 For example, when the determination function 184 determines that the characteristic region depicted in the ultrasound image data 22 is benign, the determination function 184 outputs information indicating that the characteristic region is benign as the second determination result 23. . Further, when determining that the characteristic region depicted in the ultrasound image data 22 is malignant, the determination function 184 outputs information indicating that the characteristic region is malignant as a second determination result 23. .

ここで、第2の判別結果23を導出する際に用いられる超音波画像データ22は、運用時の1段階目の第1の判別処理において特徴部位が含まれると判別された超音波画像データである。すなわち、第2の判別処理において用いられる超音波画像データ22は、第1の判別処理において特徴部位が含まれると判別された超音波画像データである。なお、例えば、超音波画像データ22の種類は、超音波画像データ20の種類と同一である。 Here, the ultrasound image data 22 used when deriving the second discrimination result 23 is the ultrasound image data that was determined to include a characteristic part in the first discrimination process at the first stage during operation. be. That is, the ultrasound image data 22 used in the second discrimination process is the ultrasound image data that was determined to include the characteristic region in the first discrimination process. Note that, for example, the type of ultrasound image data 22 is the same as the type of ultrasound image data 20.

図6は、第1の実施形態に係る学習時の3段階目の処理及び運用時の3段階目の処理の一例を説明するための図である。図6に例示するように、学習時の3段階目では、学習済みモデル生成機能201aは、超音波画像データ26と、第3のラベル27との関係を学習することによって、第3の学習済みモデル13aを生成し、第3の学習条件13bを記録する。ここで、第3のラベル27は、超音波画像データ26により示される超音波画像に含まれる悪性の特徴部位の悪性度が悪性度Aであるのか又は悪性度Bであるのかを示すラベルである。すなわち、学習済みモデル生成機能201aは、超音波画像データ26と第3のラベル27とを対応付けて学習することにより、第3の学習済みモデル13aを生成し、第3の学習条件13bを記録する。 FIG. 6 is a diagram for explaining an example of the third stage processing during learning and the third stage processing during operation according to the first embodiment. As illustrated in FIG. 6, in the third stage of learning, the learned model generation function 201a learns the relationship between the ultrasound image data 26 and the third label 27, thereby generating the third learned model. A model 13a is generated and a third learning condition 13b is recorded. Here, the third label 27 is a label indicating whether the malignancy level of the malignant characteristic site included in the ultrasound image shown by the ultrasound image data 26 is malignancy level A or malignancy level B. . That is, the learned model generation function 201a generates the third learned model 13a by learning the ultrasound image data 26 and the third label 27 in association with each other, and records the third learning condition 13b. do.

第3の学習済みモデル13aを生成し、第3の学習条件13bを記録する際に用いられる超音波画像データ26は、悪性の特徴部位が描出された画像データである。超音波画像データ26は、例えば、Bモードデータから生成されたBモード画像データである。超音波画像データ26は、超音波診断装置1又は超音波診断装置1以外の超音波診断装置により生成されたデータである。 The ultrasound image data 26 used when generating the third learned model 13a and recording the third learning condition 13b is image data in which malignant characteristic parts are depicted. The ultrasound image data 26 is, for example, B-mode image data generated from B-mode data. The ultrasound image data 26 is data generated by the ultrasound diagnostic apparatus 1 or an ultrasound diagnostic apparatus other than the ultrasound diagnostic apparatus 1.

例えば、学習済みモデル生成機能201aは、超音波画像データ26と第3のラベル27の組を学習用データとして機械学習エンジンに入力することによって、機械学習を行う。 For example, the trained model generation function 201a performs machine learning by inputting a set of ultrasound image data 26 and third label 27 to a machine learning engine as learning data.

このような機械学習の結果として、学習済みモデル生成機能201aは、悪性の特徴部位が描出された超音波画像データの入力に対して第3の判別結果を導出するための第3の判別処理において用いられる第3の学習済みモデル13aを生成する。また、上述したような機械学習の結果として、学習済みモデル生成機能201aは、第3の判別処理で計算に用いられる第3の学習条件13bを記録する。そして、学習済みモデル生成機能201aは、生成した第3の学習済みモデル13a及び記録した第3の学習条件13bを超音波診断装置1に送信する。これにより、超音波診断装置1の記憶回路170に第3の学習済みモデル13a及び第3の学習条件13bが記憶される。 As a result of such machine learning, the learned model generation function 201a performs a third discrimination process to derive a third discrimination result for input ultrasound image data in which malignant characteristic parts are depicted. A third trained model 13a to be used is generated. Further, as a result of the machine learning as described above, the learned model generation function 201a records the third learning condition 13b used for calculation in the third discrimination process. The trained model generation function 201a then transmits the generated third trained model 13a and the recorded third learning condition 13b to the ultrasound diagnostic apparatus 1. As a result, the third learned model 13a and the third learning condition 13b are stored in the storage circuit 170 of the ultrasound diagnostic apparatus 1.

次に、運用時の3段階目の処理の一例について説明する。図6に例示するように、運用時の3段階目において、判別機能184は、第3の学習済みモデル13a及び第3の学習条件13bを用いて、超音波画像データ28の入力に対して、超音波画像データ28に描出された悪性の特徴部位の悪性度が、悪性度Aであるか又は悪性度Bであるかを判別し、判別結果(第3の判別結果)29を導出する第3の判別処理を実行する。 Next, an example of the third stage processing during operation will be described. As illustrated in FIG. 6, in the third stage of operation, the discrimination function 184 uses the third learned model 13a and the third learning condition 13b to A third step that determines whether the malignancy of the malignant characteristic site depicted in the ultrasound image data 28 is malignancy level A or malignancy level B, and derives a determination result (third determination result) 29. Execute the determination process.

例えば、判別機能184は、超音波画像データ28に描出された悪性の特徴部位の悪性度が悪性度Aであると判別した場合には、第3の判別結果29として、悪性の特徴部位の悪性度が悪性度Aであることを示す情報を出力する。また、判別機能184は、超音波画像データ28に描出された悪性の特徴部位の悪性度が悪性度Bであると判別した場合には、第3の判別結果29として、悪性の特徴部位の悪性度が悪性度Bであることを示す情報を出力する。 For example, when determining that the malignancy of the malignant characteristic site depicted in the ultrasound image data 28 is malignancy grade A, the determination function 184 determines that the malignancy of the malignant characteristic site is malignant as the third determination result 29. Information indicating that the grade is malignant grade A is output. Further, when determining that the malignancy of the malignant characteristic site depicted in the ultrasound image data 28 is malignancy grade B, the determination function 184 determines that the malignant characteristic site is malignant as a third determination result 29. Information indicating that the grade is malignant grade B is output.

ここで、第3の判別結果29を導出する際に用いられる超音波画像データ28は、運用時の2段階目の第2の判別処理において悪性であると判別された特徴部位が描出された超音波画像データである。すなわち、第3の判別処理において用いられる超音波画像データ28は、第2の判別処理において悪性であると判別された特徴部位が描出された超音波画像データである。なお、例えば、超音波画像データ28の種類は、超音波画像データ26の種類と同一である。 Here, the ultrasonic image data 28 used when deriving the third discrimination result 29 is an ultrasonic image data 28 that depicts a characteristic region determined to be malignant in the second discrimination process at the second stage during operation. This is sound wave image data. That is, the ultrasound image data 28 used in the third discrimination process is ultrasound image data in which a characteristic region determined to be malignant in the second discrimination process is depicted. Note that, for example, the type of ultrasound image data 28 is the same as the type of ultrasound image data 26.

以上、図2~6を参照して、学習時の処理及び運用時の処理の一例について説明した。上述したように、学習済みモデル生成機能201aは、超音波画像データと、超音波画像データに描出される特徴部位に関するラベルとを対応付けて学習することにより、各種の学習済みモデルを生成し、各種の学習条件を記録する。各種の学習済みモデル及び各種の学習条件を用いた各種の判別処理は、特徴部位に関する判別結果を出力する。学習済みモデル生成機能201aは、このような学習済みモデルを、学習時の複数の段階(上述した学習時の1段階目~3段階目)のそれぞれにおいて生成する。また、学習済みモデル生成機能201aは、このような学習条件を、学習時の複数の段階のそれぞれにおいて記録する。 An example of the process during learning and the process during operation has been described above with reference to FIGS. 2 to 6. As described above, the learned model generation function 201a generates various learned models by learning the association between ultrasound image data and labels related to characteristic parts depicted in the ultrasound image data, Record various learning conditions. Various types of discrimination processing using various learned models and various learning conditions output discrimination results regarding characteristic parts. The trained model generation function 201a generates such a trained model at each of a plurality of stages during learning (the first to third stages during learning described above). Further, the trained model generation function 201a records such learning conditions at each of a plurality of stages during learning.

学習済みモデル生成機能201aは、学習時の各段階において、特定の判別を行う機能に特化した学習済みモデルを生成し、学習条件を記録する。このため、学習時の各段階において生成された学習済みモデル及び記録された学習条件に基づく判別処理は、特定の判別を精度よく行うことができる処理である。例えば、学習済みモデル生成機能201aは、学習時の1段階目では、超音波画像に特徴部位が含まれるか又は含まれないかという判別を行う機能に特化した第1の学習済みモデル11aを生成し、第1の学習条件11bを記録する。このため、第1の学習済みモデル11a及び第1の学習条件11bに基づく第1の判別処理によれば、超音波画像に特徴部位が含まれるか又は含まれないかを精度よく判別することができる。 The trained model generation function 201a generates a trained model specialized for a function that performs a specific discrimination at each stage during learning, and records learning conditions. Therefore, the discrimination process based on the trained model generated at each stage of learning and the recorded learning conditions is a process that allows specific discrimination to be performed with high accuracy. For example, in the first stage of learning, the trained model generation function 201a generates a first trained model 11a specialized for the function of determining whether or not a characteristic region is included in an ultrasound image. and record the first learning condition 11b. Therefore, according to the first discrimination process based on the first learned model 11a and the first learning condition 11b, it is not possible to accurately discriminate whether or not a characteristic region is included in an ultrasound image. can.

また、学習済みモデル生成機能201aは、学習時の2段階目では、特徴部位が悪性であるか又は良性であるかという判別を行う機能に特化した第2の学習済みモデル12aを生成し、第2の学習条件12bを記録する。このため、第2の学習済みモデル12a及び第2の学習条件12bに基づく第2の判別処理によれば、特徴部位が悪性であるか又は良性であるかを精度よく判別することができる。 Furthermore, in the second stage of learning, the trained model generation function 201a generates a second trained model 12a specialized for the function of determining whether a characteristic part is malignant or benign, Record the second learning condition 12b. Therefore, according to the second discrimination process based on the second trained model 12a and the second learning condition 12b, it is possible to accurately discriminate whether the characteristic region is malignant or benign.

また、学習済みモデル生成機能187は、学習時の3段階目では、悪性である特徴部位の悪性度が悪性度Aであるか又は悪性度Bであるかという判別を行う機能に特化した第3の学習済みモデル13aを生成し、第3の学習条件13bを記録する。このため、第3の学習済みモデル13a及び第3の学習条件13bに基づく第3の判別処理によれば、悪性である特徴部位の悪性度が悪性度Aであるか又は悪性度Bであるかを精度よく判別することができる。 In addition, in the third stage of learning, the learned model generation function 187 has a function specialized for determining whether the malignancy of a malignant characteristic part is malignancy level A or malignancy level B. The third learned model 13a is generated, and the third learning condition 13b is recorded. Therefore, according to the third discrimination process based on the third learned model 13a and the third learning condition 13b, it is determined whether the malignancy of the malignant characteristic part is malignancy level A or malignancy level B. can be determined with high accuracy.

すなわち、判別機能184は、運用時の複数の段階のそれぞれにおいて、他の段階で実行される判別処理とは異なる特有の判別処理を実行する。したがって、第1の学習済みモデル11a、第2の学習済みモデル12a及び第3の学習済みモデル13a、並びに、第1の学習条件11b、第2の学習条件12b及び第3の学習条件13bを有する超音波診断装置1によれば、特徴部位に関する各種の判別結果を精度よく得ることができる。 That is, the determination function 184 executes a unique determination process that is different from determination processes performed in other stages at each of a plurality of stages during operation. Therefore, it has a first trained model 11a, a second trained model 12a, and a third trained model 13a, as well as a first learning condition 11b, a second learning condition 12b, and a third learning condition 13b. According to the ultrasonic diagnostic apparatus 1, various discrimination results regarding characteristic parts can be obtained with high accuracy.

また、上述したように、学習済みモデル生成機能201aは、例えば、悪性であるか又は良性であるかの判別対象である特徴部位が描出されていない超音波画像データを用いずに、特徴部位が描出された超音波画像データを用いて、第2の学習済みモデル12aを生成する。このため、学習済みモデル生成機能201aは、第2の学習済みモデル12aを生成する際の機械学習の収束を早めることができる。 Furthermore, as described above, the trained model generation function 201a can, for example, detect a characteristic region without using ultrasound image data in which a characteristic region to be determined as malignant or benign is depicted. A second trained model 12a is generated using the visualized ultrasound image data. Therefore, the trained model generation function 201a can accelerate the convergence of machine learning when generating the second trained model 12a.

また、学習済みモデル生成機能201aは、例えば、悪性度Aであるか又は悪性度Bであるかの判別対象でない良性の特徴部位が描出された超音波画像データを用いずに、このような判別対象である悪性の特徴部位が描出された超音波画像データを用いて、第3の学習済みモデル13aを生成する。このため、学習済みモデル生成機能201aは、第3の学習済みモデル13aを生成する際の機械学習の収束を早めることができる。 In addition, the trained model generation function 201a can perform such a discrimination without using ultrasound image data depicting benign characteristic areas that are not targets for discrimination between malignant grade A and malignant grade B, for example. A third trained model 13a is generated using ultrasound image data in which the target malignant characteristic site is depicted. Therefore, the trained model generation function 201a can accelerate the convergence of machine learning when generating the third trained model 13a.

また、上述したように、判別機能184は、運用時の複数の段階(上述した運用時の1段階目~3段階目)のそれぞれにおいて、各種の学習済みモデル及び各種の学習条件を用いて、特徴部位に関する各種の判別結果を導出する。例えば、判別機能184は、運用時の1段階目において、入力された超音波画像データ16に描出される特徴部位に関する第1の判別結果17を導出する。また、判別機能184は、運用時の2段階目において、入力された超音波画像データ22に描出された特徴部位に関する第2の判別結果23を導出する。また、判別機能184は、運用時の3段階目において、入力された超音波画像データ28に描出された特徴部位に関する第3の判別結果29を導出する。 In addition, as described above, the determination function 184 uses various learned models and various learning conditions in each of the plurality of stages during operation (the first to third stages during operation described above). Deriving various discrimination results regarding characteristic parts. For example, in the first stage of operation, the discrimination function 184 derives the first discrimination result 17 regarding the characteristic region depicted in the input ultrasound image data 16. Further, the discrimination function 184 derives a second discrimination result 23 regarding the characteristic region depicted in the input ultrasound image data 22 in the second stage of operation. Further, in the third stage of operation, the discrimination function 184 derives a third discrimination result 29 regarding the characteristic region depicted in the input ultrasound image data 28.

また、判別機能184は、第1の判別処理により導出された所定の判別結果に対応する超音波画像データ22(図5参照)を、第2の判別処理に入力する。ここで、第1の判別処理により導出された所定の判別結果とは、超音波画像に特徴部位が含まれることを示す場合の第1の判別結果17(図4参照)を指す。 Further, the discrimination function 184 inputs the ultrasound image data 22 (see FIG. 5) corresponding to the predetermined discrimination result derived by the first discrimination process to the second discrimination process. Here, the predetermined discrimination result derived by the first discrimination process refers to the first discrimination result 17 (see FIG. 4) that indicates that a characteristic region is included in the ultrasound image.

すなわち、判別機能184は、第2の判別処理に対して、悪性であるか又は良性であるかの判別対象である特徴部位が描出されていない超音波画像データを入力せずに、特徴部位が描出された超音波画像データ22を入力する。そして、判別機能184は、第2の判別処理により導出された第2の判別結果23を、運用時の2段階目に対応する判別結果として導出する。 In other words, the discrimination function 184 performs the second discrimination process without inputting ultrasound image data in which the characteristic region to be determined as malignant or benign is depicted. The rendered ultrasound image data 22 is input. Then, the determination function 184 derives the second determination result 23 derived by the second determination process as a determination result corresponding to the second stage during operation.

また、判別機能184は、第2の判別処理により導出された所定の判別結果に対応する超音波画像データ28(図6参照)を、第3の判別処理に入力する。ここで、第2の判別処理により導出された所定の判別結果とは、特徴部位が悪性であることを示す場合の第2の判別結果23(図5参照)を指す。 Further, the discrimination function 184 inputs the ultrasound image data 28 (see FIG. 6) corresponding to the predetermined discrimination result derived by the second discrimination process to the third discrimination process. Here, the predetermined discrimination result derived by the second discrimination process refers to the second discrimination result 23 (see FIG. 5) that indicates that the characteristic site is malignant.

すなわち、判別機能184は、第3の判別処理に対して、悪性度Aであるか又は悪性度Bであるかの判別対象である悪性の特徴部位が描出されていない超音波画像データを入力せずに、悪性の特徴部位が描出された超音波画像データ28を入力する。そして、判別機能184は、第3の判別処理により導出された第3の判別結果29を、3段階目に対応する判別結果として導出する。 In other words, the discrimination function 184 inputs ultrasonic image data in which a characteristic malignant region that is to be determined as being grade A or grade B is not visualized for the third discrimination process. Ultrasonic image data 28 in which a characteristic malignant region is depicted is input without any modification. Then, the discrimination function 184 derives the third discrimination result 29 derived by the third discrimination process as the discrimination result corresponding to the third stage.

このように、判別機能184は、複数の段階のうち、一の段階に対応する判別処理により導出された所定の判別結果に対応する超音波画像データを、一の段階の次の段階に対応する判別処理に入力し、一の段階の次の段階に対応する判別処理により導出された判別結果を、一の段階の次の段階に対応する判別結果として導出する。 In this way, the discrimination function 184 selects the ultrasound image data corresponding to the predetermined discrimination result derived by the discrimination process corresponding to one of the plurality of stages to the next stage of the first stage. The input is input to the discrimination process, and the discrimination result derived by the discrimination process corresponding to the next stage of the first stage is derived as the discrimination result corresponding to the next stage of the first stage.

上述したように、判別機能184は、超音波画像に特徴部位が含まれるか又は含まれないかを精度よく判別することができる第1の学習済みモデル11a及び第1の学習条件11bを用いて、第1の判別結果17(図4参照)を導出する。したがって、判別機能184は、判別精度が良好な第1の判別結果17を導出することができる。 As described above, the discrimination function 184 uses the first trained model 11a and the first learning condition 11b that can accurately discriminate whether a characteristic region is included or not included in an ultrasound image. , the first discrimination result 17 (see FIG. 4) is derived. Therefore, the discrimination function 184 can derive the first discrimination result 17 with good discrimination accuracy.

また、判別機能184は、特徴部位が悪性であるか又は良性であるかを精度よく判別することができる第2の学習済みモデル12a及び第2の学習条件12bを用いて、第2の判別結果23(図5参照)を導出する。したがって、判別機能184は、判別精度が良好な第2の判別結果23を導出することができる。 Further, the discrimination function 184 uses the second trained model 12a and the second learning condition 12b, which can accurately discriminate whether the characteristic region is malignant or benign, to obtain a second discrimination result. 23 (see FIG. 5). Therefore, the discrimination function 184 can derive the second discrimination result 23 with good discrimination accuracy.

また、判別機能184は、特徴部位の悪性度が悪性度Aであるか又は悪性度Bであるかを精度よく判別することができる第3の学習済みモデル13a及び第3の学習条件13bを用いて、第3の判別結果29(図6参照)を導出する。したがって、判別機能184は、判別精度が良好な第3の判別結果29を導出することができる。 Further, the discrimination function 184 uses the third learned model 13a and the third learning condition 13b that can accurately discriminate whether the malignancy of the characteristic region is malignancy level A or malignancy level B. Then, a third determination result 29 (see FIG. 6) is derived. Therefore, the discrimination function 184 can derive the third discrimination result 29 with good discrimination accuracy.

これらのことから、第1の実施形態に係る超音波診断装置1によれば、特徴部位に関する判別結果を精度よく得ることができる。 For these reasons, according to the ultrasonic diagnostic apparatus 1 according to the first embodiment, it is possible to accurately obtain discrimination results regarding characteristic parts.

次に、運用時の第1段階目において、判別機能184が第1の学習済みモデル11a及び第1の学習条件11bを用いて実行する第1の判別処理の一例について説明する。図7は、第1の実施形態に係る第1の判別処理の一例の流れを示すフローチャートである。 Next, an example of the first discrimination process executed by the discrimination function 184 using the first learned model 11a and the first learning condition 11b in the first stage of operation will be described. FIG. 7 is a flowchart showing an example of the flow of the first determination process according to the first embodiment.

図7に示すように、判別機能184は、第1の検出処理を実行し(ステップS101)、第2の検出処理を実行する(ステップS102)。 As shown in FIG. 7, the determination function 184 executes a first detection process (step S101) and a second detection process (step S102).

まず、ステップS101で実行される第1の検出処理について説明する。判別機能184は、検索窓と第1の検索用学習済みモデルと検索アルゴリズムとを用いて、操作者により超音波画像に設定された検索範囲(ROI)における特徴部位を検索する。例えば、判別機能184は、検索範囲内で検索窓を複数の位置に移動させる。また、判別機能184は、各位置において、検索窓内の画像情報を、第1の検索用学習済みモデルと検索アルゴリズムとを用いて解析することにより、各検索窓内の画像情報が特徴部位に相当する確率(第1の確率)を算出する。 First, the first detection process executed in step S101 will be described. The determination function 184 uses the search window, the first trained model for search, and the search algorithm to search for a characteristic region in a search range (ROI) set in the ultrasound image by the operator. For example, the determination function 184 moves the search window to multiple positions within the search range. In addition, the discrimination function 184 analyzes the image information in the search window at each position using the first search trained model and the search algorithm, so that the image information in each search window becomes a characteristic part. A corresponding probability (first probability) is calculated.

検索窓とは、例えば、第1の検索用学習済みモデルと比較される検索範囲内の領域の単位である。第1の検索用学習済みモデルは、例えば、特徴部位の標本となる画像情報を学習したモデルである。検索アルゴリズムとは、上述した第1の確率を算出し、処理対象の超音波画像において特徴部位に相当する画像情報を検索するためのアルゴリズムである。 The search window is, for example, a unit of area within the search range that is compared with the first trained model for search. The first trained model for search is, for example, a model that has been trained on image information that is a sample of a characteristic part. The search algorithm is an algorithm for calculating the above-mentioned first probability and searching for image information corresponding to a characteristic region in an ultrasound image to be processed.

第1の検索用学習済みモデルは、特徴部位を示す第1のパターンの一例である。 The first trained model for search is an example of a first pattern indicating a characteristic part.

そして、判別機能184は、算出された第1の確率が所定の閾値以上である場合に、検索窓で囲まれた範囲を、特徴部位(特徴部位の範囲)として検出する。すなわち、判別機能184は、超音波画像の一部分の特徴と、特徴部位を示す第1の検索用学習済みモデルの特徴とが類似している度合いを示す第1の確率が閾値以上である場合には、超音波画像に特徴部位が含まれると判別する。また、判別機能184は、第1の確率が閾値未満であるときには、超音波画像に特徴部位が含まれないと判別する。そして、判別機能184は、超音波画像に特徴部位が含まれるか又は含まれないかを判別した結果である第1の判別結果を導出する。第1の検出処理は、特徴部位検出処理の一例である。 Then, when the calculated first probability is greater than or equal to a predetermined threshold, the determination function 184 detects the range surrounded by the search window as a characteristic part (range of characteristic parts). That is, the discrimination function 184 determines that when the first probability indicating the degree of similarity between the feature of a part of the ultrasound image and the feature of the first search trained model indicating the characteristic region is greater than or equal to the threshold value. determines that a characteristic region is included in the ultrasound image. Further, the determination function 184 determines that the ultrasound image does not include the characteristic region when the first probability is less than the threshold value. Then, the determination function 184 derives a first determination result that is a result of determining whether or not the characteristic region is included in the ultrasound image. The first detection process is an example of a characteristic part detection process.

そして、判別機能184は、1フレーム分の超音波画像データ毎に、超音波画像に対する検索結果(検出結果)を記憶回路170に記憶させる。例えば、判別機能184は、1フレームの超音波画像から特徴部位を検出することができた場合には、特徴部位の位置を示す位置情報を検索結果として記憶回路170に記憶させる。なお、ここでいう特徴部位の位置は、超音波画像データの画像空間における位置である。 Then, the determination function 184 causes the storage circuit 170 to store the search results (detection results) for the ultrasound images for each frame of ultrasound image data. For example, if the determining function 184 is able to detect a characteristic region from one frame of an ultrasound image, the determination function 184 causes the storage circuit 170 to store position information indicating the position of the characteristic region as a search result. Note that the position of the characteristic region referred to here is the position in the image space of ultrasound image data.

ここで、図8及び図9を参照して、判別機能184により検出される特徴部位には、正しく検出された特徴部位と、実際には特徴部位ではないのに誤って検出された特徴部位との2種類の特徴部位があることについて説明する。図8及び図9は、第1の実施形態に係る判別機能184による特徴部位の検出結果の一例を説明するための図である。 Here, with reference to FIGS. 8 and 9, the characteristic parts detected by the discrimination function 184 include a correctly detected characteristic part and a characteristic part that is not actually a characteristic part but is detected incorrectly. It will be explained that there are two types of characteristic parts. FIGS. 8 and 9 are diagrams for explaining an example of detection results of characteristic parts by the discrimination function 184 according to the first embodiment.

図8には、判別機能184により正しく検出された場合が示されている。図8に例示するように、例えば、判別機能184は、超音波画像に対して第1の検出処理を行って、検索窓30で囲まれた、実際の特徴部位31を含む範囲を特徴部位として検出する。そして、判別機能184は、超音波画像において検出された特徴部位の位置を示す情報を記憶回路170に記憶させる。 FIG. 8 shows a case where the discrimination function 184 correctly detects the detection. As illustrated in FIG. 8, for example, the discrimination function 184 performs a first detection process on the ultrasound image, and selects the range that includes the actual characteristic region 31 surrounded by the search window 30 as the characteristic region. To detect. Then, the discrimination function 184 causes the storage circuit 170 to store information indicating the position of the characteristic region detected in the ultrasound image.

一方、図9には、判別機能184により誤って特徴部位が検出された場合が示されている。図9に例示するように、例えば、判別機能184は、超音波画像に対して第1の検出処理を行って、検索窓30で囲まれた、実際の特徴部位31を含まない範囲を誤って特徴部位として検出する場合がある。このように、誤って特徴部位を検出することは、過検出(偽陽性)と呼ばれる。このような場合にも、判別機能184は、超音波画像において検出された特徴部位の位置を示す情報を記憶回路170に記憶させる。 On the other hand, FIG. 9 shows a case where a characteristic part is erroneously detected by the discrimination function 184. As illustrated in FIG. 9, for example, the discrimination function 184 performs the first detection process on the ultrasound image and erroneously detects a range that does not include the actual characteristic region 31 surrounded by the search window 30. It may be detected as a characteristic part. Incorrectly detecting a feature region in this way is called overdetection (false positive). Even in such a case, the discrimination function 184 causes the storage circuit 170 to store information indicating the position of the characteristic region detected in the ultrasound image.

また、判別機能184は、1フレームの超音波画像から、特徴部位を検出することができなかった場合には、特徴部位を検出することができなかったことを示す情報を検索結果として記憶回路170に記憶させる。 Further, when the characteristic region cannot be detected from one frame of the ultrasound image, the determination function 184 stores information indicating that the characteristic region could not be detected in the storage circuit 170 as a search result. to be memorized.

なお、判別機能184は、検索窓30内の画像情報の特徴と第1の検索用学習済みモデルの特徴とが類似している度合いを示す指標の一例として、第1の確率を算出する場合について説明した。しかしながら、判別機能184は、第1の確率に代えて、検索窓30内の画像情報の特徴と第1の検索用学習済みモデルの特徴とが類似している度合いを示す類似度等の他の指標を算出してもよい。 Note that the determination function 184 calculates the first probability as an example of an index indicating the degree of similarity between the features of the image information in the search window 30 and the features of the first trained model for search. explained. However, instead of using the first probability, the determination function 184 uses other factors such as similarity, which indicates the degree to which the features of the image information in the search window 30 and the features of the first trained model for search are similar. An index may also be calculated.

以上、ステップS101で実行される第1の検出処理の一例について説明した。図10は、第1の実施形態に係る第1の検出処理の結果の一例を示す図である。図10に示す「特徴部位と判定した結果」は、1フレームの超音波画像から、第1の検出処理により特徴部位であると判定された検索窓30の位置における検索窓30内の画像情報の一例を示す。図10に示す「特徴部位ではないと判定した結果」は、1フレームの超音波画像から、第1の検出処理により特徴部位が検出されなかった場合の検索窓30内の画像情報の一例を示す。なお、図10には、第1の検出処理において、検索範囲内の複数の位置に検索窓30が配置されて、各位置で第1の確率が算出された結果の例として、10ヶ所の画像情報が示されている。 An example of the first detection process executed in step S101 has been described above. FIG. 10 is a diagram illustrating an example of the results of the first detection process according to the first embodiment. The “results determined as characteristic regions” shown in FIG. 10 are image information in the search window 30 at the position of the search window 30 determined to be a characteristic region by the first detection process from one frame of the ultrasound image. An example is shown. 10 shows an example of the image information in the search window 30 when a characteristic region is not detected in the first detection process from one frame of the ultrasound image. . Note that FIG. 10 shows images of 10 locations as an example of the results in which the search window 30 is placed at multiple locations within the search range in the first detection process and the first probability is calculated at each location. Information is shown.

図10に示すように、判別機能184は、第1の検出処理において、6カ所の位置で特徴部位を検出する。具体的には、図10に示すように、判別機能184は、検索窓30内の6つの画像情報40a~40fが特徴部位であると判定する。 As shown in FIG. 10, the discrimination function 184 detects characteristic parts at six positions in the first detection process. Specifically, as shown in FIG. 10, the determination function 184 determines that six pieces of image information 40a to 40f within the search window 30 are characteristic parts.

画像情報40aは、実際の特徴部位31aが描出された画像情報である。画像情報40bは、過検出された画像情報である。画像情報40cは、実際の特徴部位31bが描出された画像情報である。画像情報40dは、実際の特徴部位31cが描出された画像情報である。画像情報40eは、実際の特徴部位31dが描出された画像情報である。画像情報40fは、過検出された画像情報である。すなわち、図10に示す場合には、特徴部位と判定された6つの画像情報のうち、2つの画像情報が過検出されている。 The image information 40a is image information in which the actual characteristic region 31a is depicted. The image information 40b is over-detected image information. The image information 40c is image information in which the actual characteristic region 31b is depicted. The image information 40d is image information in which the actual characteristic region 31c is depicted. The image information 40e is image information in which the actual characteristic region 31d is depicted. The image information 40f is over-detected image information. That is, in the case shown in FIG. 10, two of the six pieces of image information determined to be characteristic parts are overdetected.

また、図10に示すように、判別機能184は、第1の検出処理において、4カ所の位置で特徴部位を検出しなかった。具体的には、図10に示すように、判別機能184は、検索窓30内の4つの画像情報40g~40jが特徴部位ではないと判定した。 Further, as shown in FIG. 10, the determination function 184 did not detect characteristic parts at four positions in the first detection process. Specifically, as shown in FIG. 10, the determination function 184 determines that the four pieces of image information 40g to 40j within the search window 30 are not characteristic parts.

次に、ステップS102で実行される第2の検出処理について説明する。判別機能184は、過検出判別用学習済みモデルと検索アルゴリズムとを用いて、第1の検出処理において検出された特徴部位(検索窓30内の画像情報)が、第1の検出処理において過検出されると推定される画像情報に相当する確率(第2の確率)を算出する。 Next, the second detection process executed in step S102 will be explained. The discrimination function 184 uses a trained model for overdetection discrimination and a search algorithm to determine whether the feature region (image information within the search window 30) detected in the first detection process is overdetected in the first detection process. A probability (second probability) corresponding to the image information estimated to be generated is calculated.

過検出判別用学習済みモデルは、例えば、第1の検出処理において過検出されると推定される画像情報と、特徴部位の画像情報との判別を学習したモデルである。検索アルゴリズムとは、上述した第2の確率を算出し、処理対象の超音波画像において、第1の検出処理において過検出されると推定される画像情報に相当する画像情報を検索するためのアルゴリズムである。 The trained model for overdetection discrimination is, for example, a model that has learned to discriminate between image information estimated to be overdetected in the first detection process and image information of a characteristic part. The search algorithm is an algorithm that calculates the second probability described above and searches for image information corresponding to image information that is estimated to be over-detected in the first detection process in the ultrasound image to be processed. It is.

過検出判別用学習済みモデルは、第1の検出処理において、超音波画像に特徴部位が含まれないにも関わらず、特徴部位が含まれると誤って判別されると推定される画像情報の抽出を目的として学習したモデルである。過検出判別用学習済みモデルは、第2のパターンの一例である。 In the first detection process, the trained model for overdetection discrimination extracts image information that is estimated to be incorrectly determined if a characteristic part is included even though the ultrasound image does not contain a characteristic part. This is a model that was trained for the purpose of The trained model for overdetection discrimination is an example of the second pattern.

ここで、先の図10に例示するように、第1の検出処理において、6つの画像情報40a~40fが検出された場合について説明する。この場合、判別機能184は、第2の検出処理において、6つの画像情報40a~40fのそれぞれが、第1の検出処理において過検出されると推定される画像情報に相当する第2の確率を算出する。このように、判別機能184は、6つの画像情報40a~40fのそれぞれについて、第2の確率を算出する。 Here, as illustrated in FIG. 10, a case will be described in which six pieces of image information 40a to 40f are detected in the first detection process. In this case, the determination function 184 calculates a second probability that each of the six pieces of image information 40a to 40f corresponds to image information that is estimated to be over-detected in the first detection process in the second detection process. calculate. In this way, the determination function 184 calculates the second probability for each of the six pieces of image information 40a to 40f.

そして、判別機能184は、6つの画像情報40a~40fのうち、算出された第2の確率が所定の閾値以上である画像情報を、第1の検出処理において過検出された画像情報として検出する。そして、判別機能184は、1フレーム分の超音波画像データ毎に、超音波画像に対する検索結果(検出結果)を記憶回路170に記憶させる。例えば、1フレームの超音波画像に対して、過検出された画像情報が検出された場合には、判別機能184は、検出された画像情報の位置を示す位置情報を検索結果として記憶回路170に記憶させる。 Then, the determination function 184 detects, among the six image information 40a to 40f, image information for which the calculated second probability is greater than or equal to a predetermined threshold value as image information that was overdetected in the first detection process. . Then, the determination function 184 causes the storage circuit 170 to store the search results (detection results) for the ultrasound images for each frame of ultrasound image data. For example, if over-detected image information is detected in one frame of ultrasound image, the determination function 184 stores position information indicating the position of the detected image information in the storage circuit 170 as a search result. Make me remember.

なお、第2の検出処理では、判別機能184により、第1の検出処理において過検出された画像情報を正しく検出できる場合、及び、正しく検出できない場合がある。正しく検出できない場合には、第1の検出処理において過検出された画像情報ではない画像情報を誤って、第1の検出処理において過検出された画像情報として検出することが含まれる。 Note that in the second detection process, the determination function 184 may be able to correctly detect the image information that was overdetected in the first detection process, and may not be able to correctly detect it. If the detection cannot be performed correctly, this includes erroneously detecting image information that is not image information that was over-detected in the first detection process as image information that was over-detected in the first detection process.

また、例えば、1フレームの超音波画像に対して、過検出された画像情報が検出されなかった場合には、判別機能184は、検出されなかった画像情報の位置を示す位置情報を検索結果として記憶回路170に記憶させる。 Further, for example, if over-detected image information is not detected for one frame of ultrasound image, the determination function 184 uses position information indicating the position of the undetected image information as a search result. The data is stored in the memory circuit 170.

なお、判別機能184は、画像情報の特徴と過検出判別用学習済みモデルの特徴とが類似している度合いを示す指標の一例として、第2の確率を算出する場合について説明した。しかしながら、判別機能184は、第2の確率に代えて、画像情報の特徴と過検出判別用学習済みモデルの特徴とが類似している度合いを示す類似度等の他の指標を算出してもよい。 Note that a case has been described in which the discrimination function 184 calculates the second probability as an example of an index indicating the degree of similarity between the features of the image information and the features of the trained model for overdetection discrimination. However, instead of the second probability, the discrimination function 184 may calculate other indicators such as similarity, which indicates the degree to which the features of the image information and the features of the trained model for overdetection discrimination are similar. good.

以上、ステップS102で実行される第2の検出処理の一例について説明した。図11は、第1の実施形態に係る第2の検出処理の結果の一例を示す図である。図11には、先の図10に示す6つの画像情報40a~40fのそれぞれに対して、第2の検出処理が実行された結果が示されている。図11に示す「過検出と判定した結果」は、第2の検出処理により検出された画像情報の一例を示す。図11に示す「過検出ではないと判定した結果」は、第2の検出処理により検出されなかった画像情報の一例を示す。 An example of the second detection process executed in step S102 has been described above. FIG. 11 is a diagram illustrating an example of the results of the second detection process according to the first embodiment. FIG. 11 shows the results of performing the second detection process on each of the six pieces of image information 40a to 40f shown in FIG. 10 above. The "result of over-detection" shown in FIG. 11 shows an example of image information detected by the second detection process. The "result determined not to be overdetection" shown in FIG. 11 indicates an example of image information that was not detected by the second detection process.

図11に示すように、判別機能184は、第2の検出処理において、第1の検出処理において過検出された画像情報として、2つの画像情報40b,40fを検出する。また、判別機能184は、第2の検出処理において、4つの画像情報40a,40c,40d,40eを検出していない。そして、判別機能184は、第2の検出処理において、6つの画像情報40a~40fのうち、検出された2つの画像情報40b,40f以外の4つの画像情報40a,40c,40d,40eを、実際の特徴部位が含まれる画像情報として検出する。これにより、第2の検出処理では、最終的に、4つの画像情報40a,40c,40d,40eが、特徴部位として検出される。 As shown in FIG. 11, in the second detection process, the determination function 184 detects two pieces of image information 40b and 40f as image information that was overdetected in the first detection process. Furthermore, the determination function 184 does not detect the four pieces of image information 40a, 40c, 40d, and 40e in the second detection process. Then, in the second detection process, the determination function 184 selects four image information 40a, 40c, 40d, and 40e other than the detected two image information 40b and 40f out of the six image information 40a to 40f. It is detected as image information that includes the characteristic parts of the image. As a result, in the second detection process, four pieces of image information 40a, 40c, 40d, and 40e are finally detected as characteristic parts.

上述したように、判別機能184は、第1の検出処理において検出された特徴部位の中から過検出された特徴部位を除く特徴部位を、第2の検出処理において最終的に特徴部位として検出する。 As described above, the discrimination function 184 finally detects the feature parts detected in the first detection process, excluding over-detected feature parts, as feature parts in the second detection process. .

すなわち、判別機能184は、第1の検出処理により超音波画像に含まれると判別された特徴部位の特徴と、過検出判別用学習済みモデルの特徴とが類似している度合いを示す第2の確率が閾値以上である場合には、第1の検出処理において超音波画像に含まれると判別された特徴部位が超音波画像に含まれないと訂正する。したがって、判別機能184は、精度良く特徴部位を検出することができる。第2の検出処理は、訂正処理の一例である。 That is, the discrimination function 184 uses a second detection function that indicates the degree of similarity between the feature of the feature region determined to be included in the ultrasound image by the first detection process and the feature of the trained model for overdetection discrimination. If the probability is greater than or equal to the threshold, it is corrected that the characteristic region determined to be included in the ultrasound image in the first detection process is not included in the ultrasound image. Therefore, the discrimination function 184 can detect the characteristic region with high accuracy. The second detection process is an example of a correction process.

ここで、操作者は、特徴部位の詳細ではなく、特徴部位があるか否かを把握したい場合には、超音波プローブ101を比較的広い範囲で比較的速く移動させると考えられる。一方、操作者は、既に特徴部位の存在を把握しており、特徴部位の詳細を把握したい場合には、特徴部位の周辺という比較的狭い範囲で比較的ゆっくりと超音波プローブ101を移動させると考えられる。 Here, if the operator wants to grasp whether or not there is a characteristic region rather than the details of the characteristic region, it is considered that the operator moves the ultrasound probe 101 relatively quickly over a relatively wide range. On the other hand, if the operator already knows the existence of a characteristic region and wants to grasp the details of the characteristic region, the operator can move the ultrasound probe 101 relatively slowly in a relatively narrow range around the characteristic region. Conceivable.

そこで、第1の実施形態に係る超音波診断装置1は、以下に説明するように、超音波プローブ101の移動速度に応じて、適切な処理を実行する。 Therefore, the ultrasound diagnostic apparatus 1 according to the first embodiment executes appropriate processing depending on the moving speed of the ultrasound probe 101, as described below.

図12は、第1の実施形態に係る超音波診断装置1が実行する処理の一例の流れを示すフローチャートである。例えば、超音波診断装置1は、図12に示す処理を、所定の時間間隔で実行する。 FIG. 12 is a flowchart showing an example of a process executed by the ultrasound diagnostic apparatus 1 according to the first embodiment. For example, the ultrasound diagnostic apparatus 1 executes the process shown in FIG. 12 at predetermined time intervals.

図12に示すように、判別機能184は、超音波プローブ101の移動速度が所定の閾値Th1よりも大きいか否かを判定する(ステップS201)。ここで、超音波プローブ101の移動速度が所定の閾値Th1よりも大きい場合には、例えば、操作者は、特徴部位の詳細ではなく、特徴部位があるか否かを把握したいと考えられる。ステップS201では、速度検出機能182が、超音波プローブ101の移動速度を検出する。そして、ステップS201では、判別機能184は、速度検出機能182により検出された超音波プローブ101の移動速度が閾値Th1よりも大きいか否かを判定する。閾値Th1は、第1の閾値の一例である。 As shown in FIG. 12, the determination function 184 determines whether the moving speed of the ultrasound probe 101 is greater than a predetermined threshold Th1 (step S201). Here, if the moving speed of the ultrasound probe 101 is greater than the predetermined threshold Th1, for example, the operator may want to grasp whether or not there is a characteristic region, rather than the details of the characteristic region. In step S201, the speed detection function 182 detects the moving speed of the ultrasound probe 101. Then, in step S201, the determination function 184 determines whether the moving speed of the ultrasound probe 101 detected by the speed detection function 182 is greater than the threshold Th1. The threshold Th1 is an example of a first threshold.

超音波プローブ101の移動速度が所定の閾値Th1よりも大きいと判定された場合(ステップS201:Yes)には、ステップS202において、判別機能184は、以下に説明する処理を行う。 If it is determined that the moving speed of the ultrasound probe 101 is greater than the predetermined threshold Th1 (step S201: Yes), the determination function 184 performs the process described below in step S202.

例えば、ステップS202において、判別機能184は、第1のフレームレート(例えば、30fps)、及び、第2のフレームレート(例えば、15fps)の中から、判別結果を導出する際のフレームレートとして、第1のフレームレートを選択する。なお、ここでいうフレームレートは、例えば、単位時間あたりに処理される超音波画像データの数である。また、第2のフレームレートは第1のフレームレートよりも低い。 For example, in step S202, the determination function 184 selects the first frame rate (for example, 30 fps) and the second frame rate (for example, 15 fps) as the frame rate when deriving the determination result. Select frame rate 1. Note that the frame rate here is, for example, the number of ultrasound image data processed per unit time. Also, the second frame rate is lower than the first frame rate.

また、例えば、ステップS202において、判別機能184は、第1の導出処理及び第2の導出処理の中から、判別結果を導出する際の導出処理として、第1の導出処理を選択する。ここで、第1の導出処理は、先の図4に示す運用時の1段階目の第1の判別処理である。また、第2の導出処理は、第1の判別処理、先の図5に示す運用時の2段階目の第2の判別処理、及び、先の図6に示す運用時の3段階目の第3の判別処理である。 Further, for example, in step S202, the determination function 184 selects the first derivation process from the first derivation process and the second derivation process as the derivation process when deriving the determination result. Here, the first derivation process is the first determination process at the first stage during operation shown in FIG. 4 above. The second derivation process includes the first determination process, the second determination process at the second stage of operation shown in FIG. 5, and the third determination process at the third stage of operation shown in FIG. This is the determination process No. 3.

第1の導出処理は、第2の導出処理に比べて処理負荷が低い。このため、判別機能184は、第1の導出処理を実行する場合には、フレームレートを高くすることができる。したがって、上述したように、判別機能184は、ステップS202において、複数の種類のフレームレート(第1のフレームレート及び第2のフレームレート)の中から、比較的高い第1のフレームレートを選択する。 The first derivation process has a lower processing load than the second derivation process. Therefore, the determination function 184 can increase the frame rate when executing the first derivation process. Therefore, as described above, the determination function 184 selects a relatively high first frame rate from a plurality of types of frame rates (the first frame rate and the second frame rate) in step S202. .

また、ステップS201で肯定判定(ステップS201:Yes)された場合、上述したように、操作者は、特徴部位の詳細ではなく、特徴部位があるか否かを把握したいと考えられる。そのため、ステップS202では、判別機能184は、複数の種類の導出処理(第1の導出処理及び第2の導出処理)の中から、複数の種類の判別が行われる第2の導出処理ではなく、超音波画像に特徴部位が含まれるか否かの1種類の判別を行う第1の導出処理(第1の判別処理)を選択する。 Furthermore, if an affirmative determination is made in step S201 (step S201: Yes), as described above, the operator may want to grasp whether or not there is a characteristic region, rather than the details of the characteristic region. Therefore, in step S202, the determination function 184 does not perform the second derivation process in which multiple types of derivation processes are determined from among the multiple types of derivation processes (the first derivation process and the second derivation process). A first derivation process (first discrimination process) that performs one type of discrimination as to whether or not a characteristic region is included in an ultrasound image is selected.

そして、ステップS203では、判別機能184は、選択された第1の導出処理を実行する。また、ステップS203では、制御機能181は、選択された第1のフレームレートで各種の処理を行うように、送信回路110、受信回路120、Bモード処理回路130、ドプラ処理回路140、画像生成回路150、取得機能183、判別機能184、マーカ情報生成機能185及び表示制御機能186を制御する。 Then, in step S203, the determination function 184 executes the selected first derivation process. In step S203, the control function 181 controls the transmitting circuit 110, the receiving circuit 120, the B-mode processing circuit 130, the Doppler processing circuit 140, and the image generation circuit so as to perform various processes at the selected first frame rate. 150, an acquisition function 183, a discrimination function 184, a marker information generation function 185, and a display control function 186 are controlled.

また、ステップS203では、マーカ情報生成機能185は、第1の導出処理により導出された第1の判別結果17(図4参照)に基づいて、超音波画像の検出結果を示すマーカ情報を生成する。例えば、マーカ情報生成機能185は、ステップS203で、第1の導出処理により第1の判別結果17が導出される度に、導出された第1の判別結果17に応じてマーカ情報を生成する。 Further, in step S203, the marker information generation function 185 generates marker information indicating the detection result of the ultrasound image based on the first discrimination result 17 (see FIG. 4) derived by the first derivation process. . For example, in step S203, the marker information generation function 185 generates marker information according to the derived first determination result 17 every time the first determination result 17 is derived by the first derivation process.

例えば、マーカ情報生成機能185は、第1の判別結果17が、超音波画像に特徴部位が含まれることを示す場合には、マーカ情報生成機能185は、特徴部位として検出された範囲を表す矩形のマーカを示すマーカ情報を生成する。 For example, when the first discrimination result 17 indicates that a characteristic region is included in the ultrasound image, the marker information generation function 185 generates a rectangle representing the range detected as the characteristic region. Generate marker information indicating the marker.

図13は、第1の実施形態に係るマーカ情報生成機能185が実行する処理の一例を説明するための図である。例えば、第1の判別結果17が、超音波画像に特徴部位が含まれることを示す場合には、マーカ情報生成機能185は、図13に示すように、特徴部位として検出された範囲を表す矩形のマーカ32を示すマーカ情報を生成する。なお、図13において、符号「31」は、実際の特徴部位を指す。 FIG. 13 is a diagram for explaining an example of a process executed by the marker information generation function 185 according to the first embodiment. For example, when the first discrimination result 17 indicates that the ultrasound image includes a characteristic region, the marker information generation function 185 generates a rectangle representing the range detected as the characteristic region, as shown in FIG. The marker information indicating the marker 32 is generated. In addition, in FIG. 13, the code "31" refers to an actual characteristic part.

そして、マーカ情報生成機能185は、マーカ情報を生成する度に、図13に示すように、超音波画像に、マーカ情報により示されるマーカ32を重畳させる。そして、マーカ情報生成機能185は、マーカ32が重畳された超音波画像を示す超音波画像データを画像メモリ160に記憶させる。 Each time the marker information generation function 185 generates marker information, it superimposes the marker 32 indicated by the marker information on the ultrasound image, as shown in FIG. 13. Then, the marker information generation function 185 causes the image memory 160 to store ultrasound image data indicating the ultrasound image on which the marker 32 is superimposed.

また、ステップS203において、表示制御機能186は、画像メモリ160に記憶された超音波画像データにより示される超音波画像をディスプレイ103に表示させる。超音波画像は、医用画像の一例である。表示制御機能186は、表示制御部の一例である。 Further, in step S203, the display control function 186 causes the display 103 to display an ultrasound image indicated by the ultrasound image data stored in the image memory 160. Ultrasound images are an example of medical images. The display control function 186 is an example of a display control section.

例えば、表示制御機能186は、リアルタイムで、マーカ32が重畳された超音波画像をディスプレイ103に表示させる。例えば、表示制御機能186は、マーカ32が重畳された超音波画像を示す超音波画像データが、マーカ情報生成機能185により画像メモリ160に記憶される度に、超音波画像データを画像メモリ160から取得する。そして、表示制御機能186は、マーカ32が重畳された超音波画像を示す超音波画像データを取得する度に、マーカ32が重畳された超音波画像をディスプレイ103に表示させる。 For example, the display control function 186 causes the display 103 to display the ultrasound image on which the marker 32 is superimposed in real time. For example, each time the marker information generation function 185 stores ultrasound image data indicating an ultrasound image on which the marker 32 is superimposed in the image memory 160, the display control function 186 extracts the ultrasound image data from the image memory 160. get. Then, the display control function 186 causes the display 103 to display the ultrasound image on which the marker 32 is superimposed, every time the ultrasound image data indicating the ultrasound image on which the marker 32 is superimposed is obtained.

一方、第1の判別結果17が、超音波画像に特徴部位が含まれないことを示す場合には、マーカ情報生成機能185は、マーカ情報を生成しない。 On the other hand, when the first determination result 17 indicates that the ultrasound image does not include a characteristic region, the marker information generation function 185 does not generate marker information.

ただし、表示制御機能186は、マーカ32が重畳されていない超音波画像についても、リアルタイムでディスプレイ103に表示させる。例えば、表示制御機能186は、第1の判別結果17が、超音波画像に特徴部位が含まれないことを示す場合、図14に例示する超音波画像をディスプレイ103に表示させる。なお、図14には、実際には特徴部位31が含まれるものの、第1の導出処理において特徴部位が検出されなかった超音波画像が示されている。図14は、第1の実施形態に係る表示例を示す図である。 However, the display control function 186 also causes the display 103 to display in real time an ultrasound image on which the marker 32 is not superimposed. For example, when the first determination result 17 indicates that the ultrasound image does not include a characteristic region, the display control function 186 causes the display 103 to display the ultrasound image illustrated in FIG. 14 . Note that FIG. 14 shows an ultrasound image that actually includes the characteristic region 31, but in which the characteristic region was not detected in the first derivation process. FIG. 14 is a diagram showing a display example according to the first embodiment.

ステップS203の処理が完了すると、超音波診断装置1は、図12に示す処理を終了する。 When the process of step S203 is completed, the ultrasound diagnostic apparatus 1 ends the process shown in FIG. 12.

一方、超音波プローブ101の移動速度が所定の閾値Th1以下であると判定された場合(ステップS201:No)には、判別機能184は、超音波プローブ101の移動速度が、所定の閾値Th2よりも小さいか否かを判定する(ステップS204)。ここで、閾値Th2は、閾値Th1よりも小さい。また、超音波プローブ101の移動速度が閾値Th2よりも小さい場合には、例えば、操作者は、既に特徴部位の存在を把握しており、特徴部位の詳細を把握したいと考えられる。閾値Th2は、第2の閾値の一例である。 On the other hand, if it is determined that the moving speed of the ultrasound probe 101 is less than or equal to the predetermined threshold Th1 (step S201: No), the determination function 184 determines that the moving speed of the ultrasound probe 101 is lower than the predetermined threshold Th2. It is determined whether or not the value is also smaller (step S204). Here, the threshold Th2 is smaller than the threshold Th1. Further, if the moving speed of the ultrasound probe 101 is smaller than the threshold value Th2, for example, it is considered that the operator already knows the existence of the characteristic region and wants to understand the details of the characteristic region. The threshold Th2 is an example of a second threshold.

超音波プローブ101の移動速度が、閾値Th2よりも小さいと判定された場合(ステップS204:Yes)、ステップS205において、判別機能184は、以下に説明する処理を行う。 If it is determined that the moving speed of the ultrasound probe 101 is smaller than the threshold Th2 (step S204: Yes), the determination function 184 performs the process described below in step S205.

例えば、ステップS205において、判別機能184は、第1のフレームレート及び第2のフレームレートの中から、判別結果を導出する際のフレームレートとして、第2のフレームレートを選択する。 For example, in step S205, the determination function 184 selects the second frame rate from the first frame rate and the second frame rate as the frame rate for deriving the determination result.

また、例えば、ステップS205において、判別機能184は、第1の導出処理及び第2の導出処理の中から、判別結果を導出する際の導出処理として、第2の導出処理を選択する。 Further, for example, in step S205, the determination function 184 selects the second derivation process from the first derivation process and the second derivation process as the derivation process when deriving the determination result.

ここで、第2の導出処理は、第1の判別結果17、第2の判別結果23(図5参照)及び第3の判別結果29(図6参照)を導出する。このため、第2の導出処理は、第1の導出処理よりも多くの判別結果を導出する。このように、第2の導出処理は、第1の導出処理に比べて処理負荷が高い。このため、第2の導出処理を実行する場合には、フレームレートを低くすることが好ましい。したがって、上述したように、判別機能184は、ステップS205において、第1のフレームレート及び第2のフレームレートの中から、比較的低い第2のフレームレートを選択する。 Here, the second derivation process derives the first determination result 17, the second determination result 23 (see FIG. 5), and the third determination result 29 (see FIG. 6). Therefore, the second derivation process derives more determination results than the first derivation process. In this way, the second derivation process has a higher processing load than the first derivation process. Therefore, when executing the second derivation process, it is preferable to lower the frame rate. Therefore, as described above, the determination function 184 selects the relatively low second frame rate from the first frame rate and the second frame rate in step S205.

また、操作者が、特徴部位の詳細を把握したいと考えられるため、ステップS205では、判別機能184は、複数の種類の導出処理の中から、第1の導出処理よりも多くの判別結果を導出する第2の導出処理を選択する。 Furthermore, since the operator is likely to want to grasp the details of the characteristic parts, in step S205, the discrimination function 184 derives more discrimination results than the first derivation process from among the plurality of types of derivation processes. Select the second derivation process.

そして、ステップS206では、判別機能184は、選択された第2の導出処理に含まれる第1の検出処理(運用時の1段階目の処理)を実行し、第1の判別結果17を導出する。 Then, in step S206, the determination function 184 executes the first detection process (the first stage process during operation) included in the selected second derivation process, and derives the first determination result 17. .

また、ステップS206では、マーカ情報生成機能185は、ステップS203での処理と同様の処理を行う。また、ステップS206では、表示制御機能186は、ステップS203での処理と同様の処理を行う。 Furthermore, in step S206, the marker information generation function 185 performs the same process as the process in step S203. Furthermore, in step S206, the display control function 186 performs the same process as the process in step S203.

なお、ステップS206、並びに、以下で説明するステップS207及びS208では、制御機能181は、選択された第2のフレームレートで各種の処理を行うように、送信回路110、受信回路120、Bモード処理回路130、ドプラ処理回路140、画像生成回路150、取得機能183、判別機能184、マーカ情報生成機能185及び表示制御機能186を制御する。すなわち、制御機能181は、ステップS206~S208での各処理が、第2のフレームレートで行われるように制御する。 Note that in step S206 and steps S207 and S208 described below, the control function 181 controls the transmitting circuit 110, receiving circuit 120, and B-mode processing so as to perform various processes at the selected second frame rate. It controls the circuit 130, the Doppler processing circuit 140, the image generation circuit 150, the acquisition function 183, the discrimination function 184, the marker information generation function 185, and the display control function 186. That is, the control function 181 controls each process in steps S206 to S208 to be performed at the second frame rate.

そして、ステップS207では、判別機能184は、選択された第2の導出処理に含まれる第2の判別処理(運用時の2段階目の処理)を実行し、第2の判別結果23を導出する。 Then, in step S207, the determination function 184 executes the second determination process (second-stage process during operation) included in the selected second derivation process, and derives the second determination result 23. .

ステップS207では、マーカ情報生成機能185は、導出された第2の判別結果23に応じて、文字列「悪性」又は文字列「良性」を生成する。例えば、マーカ情報生成機能185は、第2の判別結果23が、特徴部位が悪性であることを示す場合には、文字列「悪性」を生成する。また、マーカ情報生成機能185は、第2の判別結果23が、特徴部位が良性であることを示す場合には、文字列「良性」を生成する。マーカ情報生成機能185は、第2の判別結果23が導出される度に、文字列「悪性」又は文字列「良性」を生成する。 In step S207, the marker information generation function 185 generates the character string "malignant" or the character string "benign" according to the derived second determination result 23. For example, the marker information generation function 185 generates the character string "malignant" when the second determination result 23 indicates that the characteristic site is malignant. Further, the marker information generation function 185 generates the character string "benign" when the second determination result 23 indicates that the characteristic site is benign. The marker information generation function 185 generates a character string "malignant" or a character string "benign" each time the second discrimination result 23 is derived.

そして、ステップS207では、表示制御機能186は、文字列「悪性」又は文字列「良性」が生成される度に、生成された文字列「悪性」又は文字列「良性」を超音波画像に重畳させてディスプレイ103に表示させる。 Then, in step S207, the display control function 186 superimposes the generated character string "malignant" or the character string "benign" on the ultrasound image every time the character string "malignant" or the character string "benign" is generated. and display it on the display 103.

なお、マーカ情報生成機能185は、文字列「悪性」又は文字列「良性」を生成する度に、記憶回路170に記憶されている被検体Pのレポート情報に、生成された文字列「悪性」又は文字列「良性」を自動的に登録してもよい。例えば、レポート情報は、被検体Pの超音波画像診断の結果の履歴等が、医師等の操作者により入力インターフェース190を介して登録される情報である。そして、操作者は、必要に応じて、レポート情報が示すレポート画面をディスプレイ103に表示させて、レポート画面が示す超音波画像診断の結果の履歴を確認する。本実施形態では、マーカ情報生成機能185が、被検体Pのレポート情報に、自動的に、特徴部位が悪性であるか良性であるかの判別結果を登録することで、操作者が手動で判別結果をレポ-ト情報に登録しなくて済む。このため、本実施形態によれば、判別結果をレポート情報に登録する際の操作者の負担を抑制することができる。なお、マーカ情報生成機能185は、文字列「悪性」及び文字列「良性」に代えて、第2の判別結果23を自動的にレポート情報に登録してもよい。 Note that each time the marker information generation function 185 generates the character string "malignant" or the character string "benign," it adds the generated character string "malignant" to the report information of the subject P stored in the storage circuit 170. Alternatively, the character string "benign" may be automatically registered. For example, the report information is information such as the history of the results of ultrasound image diagnosis of the subject P that is registered by an operator such as a doctor via the input interface 190. Then, the operator displays the report screen indicated by the report information on the display 103 as needed, and confirms the history of the ultrasound image diagnosis results indicated by the report screen. In this embodiment, the marker information generation function 185 automatically registers the determination result of whether a characteristic region is malignant or benign in the report information of the subject P, so that the operator can manually determine whether the characteristic region is malignant or benign. There is no need to register the results in the report information. Therefore, according to the present embodiment, it is possible to suppress the burden on the operator when registering the determination result in report information. Note that the marker information generation function 185 may automatically register the second determination result 23 in the report information instead of the character string "malignant" and the character string "benign."

そして、ステップS208では、判別機能184は、選択された第2の導出処理に含まれる第3の判別処理(運用時の3段階目の処理)を実行し、第3の判別結果29を導出する。 Then, in step S208, the determination function 184 executes the third determination process (the third stage process during operation) included in the selected second derivation process, and derives the third determination result 29. .

ステップS208では、マーカ情報生成機能185は、導出された第3の判別結果29に応じて、文字列「悪性度A」又は文字列「悪性度B」を生成する。例えば、マーカ情報生成機能185は、第3の判別結果29が、特徴部位の悪性度が悪性度Aであることを示す場合には、文字列「悪性度A」を生成する。また、マーカ情報生成機能185は、第3の判別結果29が、特徴部位の悪性度が悪性度Bであることを示す場合には、文字列「悪性度B」を生成する。マーカ情報生成機能185は、第3の判別結果29が導出される度に、文字列「悪性度A」又は文字列「悪性度B」を生成する。 In step S208, the marker information generation function 185 generates a character string "malignancy level A" or a character string "malignancy level B" according to the derived third determination result 29. For example, the marker information generation function 185 generates the character string "malignancy level A" when the third determination result 29 indicates that the malignancy level of the characteristic site is malignancy level A. Further, the marker information generation function 185 generates a character string "malignancy level B" when the third determination result 29 indicates that the malignancy level of the characteristic site is malignancy level B. The marker information generation function 185 generates a character string "malignancy level A" or a character string "malignancy level B" each time the third determination result 29 is derived.

そして、ステップS208では、表示制御機能186は、文字列「悪性度A」又は文字列「悪性度B」が生成される度に、生成された文字列「悪性度A」又は文字列「悪性度B」を超音波画像に重畳させてディスプレイ103に表示させる。 Then, in step S208, the display control function 186 controls the generated character string "malignancy level A" or the character string "malignancy level B" each time the character string "malignancy level A" or the character string "malignancy level B" is generated. B'' is superimposed on the ultrasound image and displayed on the display 103.

なお、マーカ情報生成機能185は、文字列「悪性度A」又は文字列「悪性度B」を生成する度に、記憶回路170に記憶されている被検体Pのレポート情報に、生成された文字列「悪性度A」又は文字列「悪性度B」を自動的に登録してもよい。本実施形態では、マーカ情報生成機能185が、被検体Pのレポート情報に、自動的に、特徴部位の悪性度の判別結果を登録することで、操作者が手動で判別結果をレポ-ト情報に登録しなくて済む。このため、本実施形態によれば、判別結果をレポート情報に登録する際の操作者の負担を抑制することができる。なお、マーカ情報生成機能185は、文字列「悪性度A」及び文字列「悪性度B」に代えて、第3の判別結果29を自動的にレポート情報に登録してもよい。 Note that each time the marker information generation function 185 generates the character string "malignancy grade A" or the character string "malignancy grade B", the marker information generation function 185 adds the generated characters to the report information of the subject P stored in the storage circuit 170. The column "malignancy level A" or the character string "malignancy level B" may be automatically registered. In this embodiment, the marker information generation function 185 automatically registers the determination result of the malignancy of the characteristic part in the report information of the subject P, so that the operator can manually input the determination result into the report information. There is no need to register. Therefore, according to the present embodiment, it is possible to suppress the burden on the operator when registering the determination result in report information. Note that the marker information generation function 185 may automatically register the third determination result 29 in the report information instead of the character string "malignancy level A" and the character string "malignancy level B".

ステップS208の処理が完了すると、超音波診断装置1は、図12に示す処理を終了する。 When the process of step S208 is completed, the ultrasonic diagnostic apparatus 1 ends the process shown in FIG. 12.

一方、超音波プローブ101の移動速度が、閾値Th2以上であると判定された場合(ステップS204:No)には、ステップS209で、超音波診断装置1は、以下に説明する処理を行う。 On the other hand, if it is determined that the moving speed of the ultrasound probe 101 is equal to or higher than the threshold Th2 (step S204: No), the ultrasound diagnostic apparatus 1 performs the process described below in step S209.

例えば、ステップS209で、超音波診断装置1は、ステップS203の処理と同様の処理を実行する。ただし、ステップS209では、制御機能181は、所定のフレームレートで各種の処理を行うように、送信回路110、受信回路120、Bモード処理回路130、ドプラ処理回路140、画像生成回路150、取得機能183、判別機能184、マーカ情報生成機能185及び表示制御機能186を制御する。かかる所定のフレームレートは、第1のフレームレート及び第2のフレームレート以外のフレームレートであってもよいし、第1のフレームレート又は第2のフレームレートであってもよい。 For example, in step S209, the ultrasound diagnostic apparatus 1 performs the same process as the process in step S203. However, in step S209, the control function 181 controls the transmission circuit 110, the reception circuit 120, the B-mode processing circuit 130, the Doppler processing circuit 140, the image generation circuit 150, and the acquisition function so as to perform various processes at a predetermined frame rate. 183, the discrimination function 184, the marker information generation function 185, and the display control function 186 are controlled. The predetermined frame rate may be a frame rate other than the first frame rate and the second frame rate, or may be the first frame rate or the second frame rate.

ステップS209の処理が完了すると、超音波診断装置1は、図12に示す処理を終了する。 When the process of step S209 is completed, the ultrasonic diagnostic apparatus 1 ends the process shown in FIG. 12.

図12に示す処理では、判別機能184は、超音波プローブ101の移動速度に応じて、複数の超音波画像データの複数の種類のフレームレートの中から、判別結果を導出する際のフレームレートを選択する処理を実行する。このようなフレームレートを選択する処理は、第1の選択処理の一例である。 In the process shown in FIG. 12, the discrimination function 184 selects a frame rate for deriving a discrimination result from among a plurality of types of frame rates of a plurality of ultrasound image data according to the moving speed of the ultrasound probe 101. Execute the selected process. The process of selecting such a frame rate is an example of the first selection process.

また、図12に示す処理では、判別機能184は、超音波プローブ101の移動速度に応じて、判別結果を導出するための複数の種類の導出処理の中から、判別結果を導出する際の導出処理を選択する処理を実行する。このような導出処理を選択する処理は、第2の選択処理の一例である。例えば、図12に示す処理では、判別機能184は、複数の学習済みモデル及び複数の学習条件のうち、超音波プローブ101の移動速度に応じた少なくとも1つの学習済みモデル及び少なくとも1つの学習条件を用いて、この学習済みモデル及び学習条件に対応する判別処理を実行することにより、被検体Pの特徴部位に関する判別結果を導出する。 In addition, in the process shown in FIG. 12, the discrimination function 184 performs a derivation process for deriving a discrimination result from among a plurality of types of derivation processes for deriving a discrimination result according to the moving speed of the ultrasound probe 101. Execute the process that selects the process. The process of selecting such a derivation process is an example of the second selection process. For example, in the process shown in FIG. 12, the determination function 184 selects at least one learned model and at least one learning condition according to the moving speed of the ultrasound probe 101, out of the plurality of learned models and the plurality of learning conditions. By using the learned model and performing a discrimination process corresponding to the learning conditions, a discrimination result regarding the characteristic part of the subject P is derived.

したがって、第1の実施形態に係る超音波診断装置1によれば、超音波プローブ101の移動速度に応じて適切な処理を行うことができる。 Therefore, according to the ultrasound diagnostic apparatus 1 according to the first embodiment, appropriate processing can be performed depending on the moving speed of the ultrasound probe 101.

以上、第1の実施形態に係る超音波診断装置1について説明した。第1の実施形態に係る超音波診断装置1によれば、上述したように、特徴部位に関する判別結果を精度よく得ることができる。また、第1の実施形態に係る超音波診断装置1によれば、上述したように、超音波プローブ101の移動速度に応じて適切な処理を行うことができる。 The ultrasonic diagnostic apparatus 1 according to the first embodiment has been described above. According to the ultrasonic diagnostic apparatus 1 according to the first embodiment, as described above, it is possible to obtain discrimination results regarding characteristic parts with high accuracy. Further, according to the ultrasound diagnostic apparatus 1 according to the first embodiment, as described above, appropriate processing can be performed depending on the moving speed of the ultrasound probe 101.

(第2の実施形態)
なお、上述した第1の実施形態では、学習済みモデル生成装置200の学習済みモデル生成機能201aが、各種の学習済みモデルを生成し、各種の学習条件を記録する場合について説明した。しかしながら、超音波診断装置1が、各種の学習済みモデルを生成し、各種の学習条件を記録してもよい。そこで、このような実施形態を第2の実施形態として説明する。なお、第2の実施形態の説明では、第1の実施形態と異なる点を主に説明し、第1の実施形態と同様の構成及び処理については説明を省略する場合がある。
(Second embodiment)
In the first embodiment described above, the learned model generation function 201a of the trained model generation device 200 generates various learned models and records various learning conditions. However, the ultrasound diagnostic apparatus 1 may generate various learned models and record various learning conditions. Therefore, such an embodiment will be described as a second embodiment. Note that in the description of the second embodiment, differences from the first embodiment will be mainly described, and descriptions of the same configuration and processing as the first embodiment may be omitted.

図15は、第2の実施形態に係る超音波診断装置1の構成例を示す図である。第2の実施形態では、処理回路180が、学習済みモデル生成機能187を有する点が、第1の実施形態と異なる。 FIG. 15 is a diagram showing a configuration example of an ultrasound diagnostic apparatus 1 according to the second embodiment. The second embodiment differs from the first embodiment in that the processing circuit 180 includes a trained model generation function 187.

上述した第1の実施形態では、学習済みモデル生成機能201aが、超音波診断装置1又は他の超音波診断装置により生成された超音波画像データを用いて、各種の学習済みモデルを生成し、各種の学習条件を記録する。 In the first embodiment described above, the learned model generation function 201a generates various learned models using ultrasound image data generated by the ultrasound diagnostic apparatus 1 or other ultrasound diagnostic equipment, Record various learning conditions.

一方、学習済みモデル生成機能187は、画像生成回路150により生成された超音波画像データ(例えばBモード画像データ)を用いて、学習済みモデル生成機能201aと同様に、各種の学習済みモデルを生成し、各種の学習条件を記録する。学習済みモデル生成機能187は、生成部の一例である。 On the other hand, the learned model generation function 187 uses the ultrasound image data (for example, B-mode image data) generated by the image generation circuit 150 to generate various learned models, similar to the learned model generation function 201a. and record various learning conditions. The trained model generation function 187 is an example of a generation unit.

具体的には、学習済みモデル生成機能187は、第1の学習済みモデル11a、第2の学習済みモデル12a及び第3の学習済みモデル13aを生成する。また、学習済みモデル生成機能187は、第1の学習条件11b、第2の学習条件12b及び第3の学習条件13bを記憶回路170に記録する。すなわち、学習済みモデル生成機能187は、超音波画像データと、超音波画像データに描出される特徴部位に関する判別結果(ラベル)とを対応付けて学習することにより、入力された超音波画像データに描出される被検体の特徴部位に関する判別結果を出力する判別処理を実行する際に用いられる学習済みモデルを生成し、学習条件を記録する。学習済みモデル生成機能187は、学習時の複数の段階(上述した学習時の1段階目~3段階目)のそれぞれにおいて、学習済みモデルを生成し、学習条件を記録する。 Specifically, the trained model generation function 187 generates a first trained model 11a, a second trained model 12a, and a third trained model 13a. Further, the trained model generation function 187 records the first learning condition 11b, the second learning condition 12b, and the third learning condition 13b in the storage circuit 170. That is, the trained model generation function 187 learns by associating the ultrasound image data with the discrimination results (labels) related to the characteristic parts depicted in the ultrasound image data, thereby applying a model to the input ultrasound image data. A trained model is generated to be used when performing a discrimination process that outputs discrimination results regarding the characteristic parts of the object to be visualized, and learning conditions are recorded. The trained model generation function 187 generates a trained model and records learning conditions at each of a plurality of stages during learning (the first to third stages during learning described above).

ここで、学習済みモデル生成機能187は、学習済みモデル生成機能201aと同様に、非同期で、第1の学習済みモデル11aと、第2の学習済みモデル12aと、第3の学習済みモデル13aとを生成する。また、学習済みモデル生成機能187は、非同期で、第1の学習条件11bと、第2の学習条件12bと、第3の学習条件13bとを記録する。 Here, similarly to the trained model generation function 201a, the trained model generation function 187 asynchronously generates the first trained model 11a, the second trained model 12a, and the third trained model 13a. generate. Further, the learned model generation function 187 asynchronously records the first learning condition 11b, the second learning condition 12b, and the third learning condition 13b.

そして、学習済みモデル生成機能187は、第1の学習済みモデル11a、第2の学習済みモデル12a及び第3の学習済みモデル13aを記憶回路170に記憶させる。また、学習済みモデル生成機能187は、第1の学習条件11b、第2の学習条件12b及び第3の学習条件13bを記憶回路170に記憶させる。 The trained model generation function 187 then stores the first trained model 11a, the second trained model 12a, and the third trained model 13a in the storage circuit 170. Further, the trained model generation function 187 causes the storage circuit 170 to store the first learning condition 11b, the second learning condition 12b, and the third learning condition 13b.

そして、第2の実施形態では、判別機能184は、記憶回路170に記憶された各種の学習済みモデル及び各種の学習条件を用いて、第1の実施形態と同様の処理を実行する。 In the second embodiment, the determination function 184 executes the same process as in the first embodiment using various learned models and various learning conditions stored in the storage circuit 170.

以上、第2の実施形態について説明した。第2の実施形態によれば、第1の実施形態と同様に、特徴部位に関する判別結果を精度よく得ることができる。また、第2の実施形態によれば、第1の実施形態と同様に、超音波プローブ101の移動速度に応じて適切な処理を行うことができる。 The second embodiment has been described above. According to the second embodiment, similarly to the first embodiment, it is possible to obtain the determination results regarding the characteristic parts with high accuracy. Furthermore, according to the second embodiment, similar to the first embodiment, appropriate processing can be performed depending on the moving speed of the ultrasound probe 101.

なお、第2の実施形態において、学習済みモデル生成機能187は、非同期ではなく、同期をとって、第1の学習済みモデル11aと、第2の学習済みモデル12aと、第3の学習済みモデル13aとを生成してもよい。同様に、学習済みモデル生成機能187は、非同期ではなく、同期をとって、第1の学習条件11bと、第2の学習条件12bと、第3の学習条件13bとを記録してもよい。 Note that in the second embodiment, the trained model generation function 187 generates the first trained model 11a, the second trained model 12a, and the third trained model synchronously rather than asynchronously. 13a may be generated. Similarly, the trained model generation function 187 may record the first learning condition 11b, the second learning condition 12b, and the third learning condition 13b synchronously instead of asynchronously.

例えば、まず、学習済みモデル生成機能187は、第1の学習済みモデル11aを生成し、第1の学習条件11bを記録する。そして、第1の学習済みモデル11aを生成し、第1の学習条件11bを記録した後に、判別機能184は、第1の学習済みモデル11a及び第1の学習条件11bを用いて、第1の判別処理を実行する。そして、学習済みモデル生成機能187は、第1の判別処理において特徴部位が含まれると判別された超音波画像データを学習用データの一部として用いて、第2の学習済みモデル12aを生成し、第2の学習条件12bを記録する。これにより、第2の学習済みモデル12aを生成する際に用いられる学習用データの一部を操作者が用意することなく自動的に用意することが可能となる。 For example, first, the trained model generation function 187 generates the first trained model 11a and records the first learning condition 11b. After generating the first trained model 11a and recording the first learning condition 11b, the determination function 184 uses the first trained model 11a and the first learning condition 11b to generate the first trained model 11a and the first learning condition 11b. Execute determination processing. Then, the trained model generation function 187 generates the second trained model 12a by using the ultrasound image data determined to include the characteristic part in the first determination process as part of the learning data. , the second learning condition 12b is recorded. This makes it possible to automatically prepare part of the learning data used when generating the second learned model 12a without the operator having to prepare it.

このような場合の第2の学習済みモデル12aの生成方法の一例について図16を参照して説明する。図16は、第2の実施形態に係る第2の学習済みモデル12aを生成する処理の一例の流れを示すフローチャートである。 An example of a method for generating the second trained model 12a in such a case will be described with reference to FIG. 16. FIG. 16 is a flowchart illustrating an example of a process for generating the second trained model 12a according to the second embodiment.

図16に例示するように、学習済みモデル生成機能187は、特徴部位が描出された超音波画像データ及び第2のラベル21が入力されたか否かを判定する(ステップS301)。ここで、ステップS301で、入力されたか否かの判定の対象となる超音波画像データの一例について説明する。例えば、判定の対象となる超音波画像データは、第1の判別処理において特徴部位が含まれると判別された超音波画像データであり、操作者の目視により、特徴部位が含まれることが確認された超音波画像データである。操作者は、このような超音波画像データを第2のラベル21とともに、入力装置102を介して、装置本体100に入力する。 As illustrated in FIG. 16, the trained model generation function 187 determines whether or not the ultrasound image data in which the characteristic region is depicted and the second label 21 have been input (step S301). Here, an example of ultrasound image data to be determined in step S301 as to whether or not it has been input will be described. For example, the ultrasound image data to be determined is the ultrasound image data that was determined to include a characteristic region in the first discrimination process, and it has been confirmed by the operator's visual inspection that the characteristic region is included. This is ultrasound image data. The operator inputs such ultrasound image data together with the second label 21 into the apparatus main body 100 via the input device 102.

超音波画像データ及び第2のラベル21が入力されていないと判定した場合(ステップS301:No)には、学習済みモデル生成機能187は、再びステップS301の判定を行う。一方、超音波画像データ及び第2のラベル21が入力されたと判定した場合(ステップS301:Yes)には、学習済みモデル生成機能187は、入力された超音波画像データ及び第2のラベル21を用いて、第2の学習済みモデル12aを生成し、第2の学習条件12bを記録する(ステップS302)。そして、学習済みモデル生成機能187は、図16に示す処理を終了する。 If it is determined that the ultrasound image data and the second label 21 have not been input (step S301: No), the learned model generation function 187 performs the determination in step S301 again. On the other hand, if it is determined that the ultrasound image data and the second label 21 have been input (step S301: Yes), the trained model generation function 187 input the ultrasound image data and the second label 21. The second learned model 12a is generated using the second learned model 12a, and the second learning condition 12b is recorded (step S302). The trained model generation function 187 then ends the process shown in FIG. 16.

そして、第2の学習済みモデル12aが生成され、第2の学習条件12bが記録された後に、判別機能184は、第2の学習済みモデル12aと、第2の学習条件12bとを用いて、第2の判別処理を実行する。そして、学習済みモデル生成機能187は、第2の判別処理において悪性であると判別された特徴部位が描出された超音波画像データを学習用データの一部として用いて、第3の学習済みモデル13aを生成する。これにより、第3の学習済みモデル13aを生成する際に用いられる学習用データの一部を操作者が用意することなく自動的に用意することが可能となる。 Then, after the second trained model 12a is generated and the second learning condition 12b is recorded, the determination function 184 uses the second trained model 12a and the second learning condition 12b to A second determination process is executed. The trained model generation function 187 then generates a third trained model by using the ultrasound image data depicting the characteristic region determined to be malignant in the second discrimination process as part of the learning data. 13a is generated. This makes it possible to automatically prepare part of the learning data used when generating the third learned model 13a without the operator having to prepare it.

このような場合の第3の学習済みモデル13aの生成方法の一例について図17を参照して説明する。図17は、第2の実施形態に係る第3の学習済みモデル13aを生成する処理の一例の流れを示すフローチャートである。 An example of a method for generating the third learned model 13a in such a case will be described with reference to FIG. 17. FIG. 17 is a flowchart illustrating an example of a process for generating the third learned model 13a according to the second embodiment.

図17に例示するように、学習済みモデル生成機能187は、第2の判別処理において悪性であると判別された特徴部位が描出された超音波画像データ、及び、第3のラベル27が入力されたか否かを判定する(ステップS401)。ここで、ステップS401で、入力されたか否かの判定の対象となる超音波画像データの一例について説明する。例えば、判定の対象となる超音波画像データは、第2の判別処理において悪性であると判別された特徴部位が描出された超音波画像データであり、操作者の目視により、特徴部位が悪性であることが確認された超音波画像データである。操作者は、このような超音波画像データを第3のラベル27とともに、入力装置102を介して、装置本体100に入力する。 As illustrated in FIG. 17, the trained model generation function 187 receives ultrasound image data depicting a characteristic region determined to be malignant in the second discrimination process and a third label 27. It is determined whether or not (step S401). Here, an example of ultrasound image data to be determined in step S401 as to whether or not it has been input will be described. For example, the ultrasound image data to be determined is ultrasound image data that depicts a characteristic region that was determined to be malignant in the second discrimination process, and the operator visually observes that the characteristic region is determined to be malignant. This is ultrasound image data that has been confirmed to be true. The operator inputs such ultrasound image data together with the third label 27 into the apparatus main body 100 via the input device 102.

超音波画像データ及び第3のラベル27が入力されていないと判定した場合(ステップS401:No)には、学習済みモデル生成機能187は、再びステップS401の判定を行う。一方、超音波画像データ及び第3のラベル27が入力されたと判定した場合(ステップS401:Yes)には、学習済みモデル生成機能187は、入力された超音波画像データ及び第3のラベル27を用いて、第3の学習済みモデル13aを生成し、第3の学習条件13bを記録する(ステップS402)。そして、学習済みモデル生成機能187は、図17に示す処理を終了する。 If it is determined that the ultrasound image data and the third label 27 have not been input (step S401: No), the learned model generation function 187 performs the determination in step S401 again. On the other hand, if it is determined that the ultrasound image data and the third label 27 have been input (step S401: Yes), the trained model generation function 187 input the ultrasound image data and the third label 27. The third trained model 13a is generated using the third learned model 13a, and the third learning condition 13b is recorded (step S402). The trained model generation function 187 then ends the process shown in FIG. 17.

以上、学習済みモデルの他の生成方法について説明した。学習済みモデルの他の生成方法では、学習済みモデル生成機能187は、複数の段階のうち、一の段階に対応する判別処理から出力された所定の判別結果に対応する超音波画像データと、一の段階の次の段階に対応する判別結果(ラベル)とを対応付けて学習することにより、一の段階の次の段階に対応する学習済みモデルを生成する。したがって、学習済みモデルの他の生成方法によれば、学習用データを簡易に用意することができる。 Other methods of generating trained models have been described above. In another method for generating a trained model, the trained model generation function 187 combines ultrasonic image data corresponding to a predetermined discrimination result output from a discrimination process corresponding to one stage among a plurality of stages; A trained model corresponding to the next step after the first step is generated by learning in association with the discrimination result (label) corresponding to the next step after the first step. Therefore, according to another method of generating a trained model, training data can be easily prepared.

(第1の実施形態及び第2の実施形態の変形例1)
上述した第1の実施形態及び第2の実施形態では、判別機能184が、超音波プローブ101の移動速度に応じて、複数の種類の導出処理の中から、判別結果を導出する際の導出処理を選択する場合について説明した。しかしながら、判別機能184は、リアルタイムで判別結果を導出するのか、又は、後処理として判別結果を導出するのかに応じて、判別結果を導出する際の導出処理を選択してもよい。そこで、このような実施形態を、第1の実施形態及び第2の実施形態の変形例1として説明する。なお、変形例1の説明では、第1の実施形態及び第2の実施形態と異なる点を主に説明し、第1の実施形態及び第2の実施形態と同様の構成及び処理については説明を省略する場合がある。
(Modification 1 of the first embodiment and the second embodiment)
In the first and second embodiments described above, the determination function 184 performs a derivation process when deriving a determination result from among a plurality of types of derivation processes according to the moving speed of the ultrasound probe 101. We have explained the case of selecting . However, the determination function 184 may select the derivation process when deriving the determination result depending on whether the determination result is derived in real time or as a post-process. Therefore, such an embodiment will be described as a first modification of the first embodiment and the second embodiment. In addition, in the explanation of Modification 1, the points that are different from the first embodiment and the second embodiment will be mainly explained, and the same configuration and processing as the first embodiment and the second embodiment will not be explained. May be omitted.

例えば、変形例1では、超音波診断装置1には、入力装置102を介して、操作者から、超音波走査に対してリアルタイムで判別結果を導出するための指示(リアルタイム処理指示)が入力される。また、変形例1では、入力装置102を介して、操作者から、超音波走査よりも後に実行される後処理(ポスト処理)として判別結果を導出するための指示(後処理指示)が入力される。 For example, in Modification 1, an instruction (real-time processing instruction) for deriving a discrimination result in real time for ultrasound scanning is input from the operator to the ultrasound diagnostic apparatus 1 via the input device 102. Ru. Further, in Modification 1, an instruction (post-processing instruction) for deriving a discrimination result is input by the operator via the input device 102 as post-processing (post-processing) to be executed after ultrasonic scanning. Ru.

変形例1に係る超音波診断装置1は、リアルタイム処理指示が入力された場合には、先の図12に示すステップS202及びステップS203の処理と同様の処理を実行する。 When the real-time processing instruction is input, the ultrasound diagnostic apparatus 1 according to the first modification executes the same processing as the processing in step S202 and step S203 shown in FIG. 12 above.

また、超音波診断装置1は、後処理指示が入力された場合には、リアルタイムではなく、記憶回路170に記憶された複数の超音波画像データに対して、後処理として、先の図12に示すステップS205~ステップS208の処理と同様の処理を実行する。 Further, when a post-processing instruction is input, the ultrasound diagnostic apparatus 1 performs post-processing on the plurality of ultrasound image data stored in the storage circuit 170, not in real time, but in the process shown in FIG. Processing similar to that shown in steps S205 to S208 is executed.

したがって、第1の実施形態及び第2の実施形態の変形例1に係る超音波診断装置1によれば、リアルタイムで判別結果を導出するのか、又は、後処理として判別結果を導出するのかに応じて、適切な処理を行うことができる。また、変形例1に係る超音波診断装置1によれば、第1の実施形態及び第2の実施形態と同様に、特徴部位に関する判別結果を精度よく得ることができる。 Therefore, according to the ultrasonic diagnostic apparatus 1 according to the first modification of the first embodiment and the second embodiment, depending on whether the discrimination result is derived in real time or as post-processing. appropriate processing can be carried out. Moreover, according to the ultrasonic diagnostic apparatus 1 according to the first modification, similarly to the first embodiment and the second embodiment, it is possible to obtain the determination result regarding the characteristic region with high accuracy.

(第1の実施形態及び第2の実施形態の変形例2)
上述した第1の実施形態及び第2の実施形態では、判別機能184が、超音波プローブ101の移動速度に応じて、運用時の1段階目の処理を行うのか、又は、運用時の1段階目~3段階目の処理を行うのかを選択する場合について説明した。
(Modification 2 of the first embodiment and the second embodiment)
In the first and second embodiments described above, the determination function 184 determines whether to perform the first stage of operation or the first stage of operation depending on the moving speed of the ultrasound probe 101. The case where the user selects whether to perform the processing in steps 3 to 3 has been explained.

しかしながら、判別機能184は、超音波プローブ101の移動速度に応じて、図7に示す第1の検出処理を行うのか、又は、図7に示す第1の検出処理及び第2の検出処理を行うのかを選択してもよい。そこで、このような実施形態を、第1の実施形態及び第2の実施形態の変形例2として説明する。なお、変形例2の説明では、第1の実施形態及び第2の実施形態と異なる点を主に説明し、第1の実施形態及び第2の実施形態と同様の構成及び処理については説明を省略する場合がある。 However, the determination function 184 performs the first detection process shown in FIG. 7 or the first detection process and the second detection process shown in FIG. 7 depending on the moving speed of the ultrasound probe 101. You may choose either. Therefore, such an embodiment will be described as a second modification of the first embodiment and the second embodiment. In addition, in the description of the second modification, the points that are different from the first embodiment and the second embodiment will be mainly explained, and the same configuration and processing as the first embodiment and the second embodiment will not be explained. May be omitted.

図18は、第1の実施形態及び第2の実施形態の変形例2に係る超音波診断装置1が実行する処理の一例の流れを示すフローチャートである。例えば、超音波診断装置1は、図18に示す処理を、所定の時間間隔で実行する。 FIG. 18 is a flowchart showing an example of a process executed by the ultrasound diagnostic apparatus 1 according to the second modification of the first embodiment and the second embodiment. For example, the ultrasound diagnostic apparatus 1 executes the process shown in FIG. 18 at predetermined time intervals.

図18に示すように、判別機能184は、超音波プローブ101の移動速度が所定の閾値Th1よりも大きいか否かを判定する(ステップS501)。ステップS501では、速度検出機能182が、超音波プローブ101の移動速度を検出する。そして、ステップS501では、判別機能184は、速度検出機能182により検出された超音波プローブ101の移動速度が閾値Th1よりも大きいか否かを判定する。 As shown in FIG. 18, the determination function 184 determines whether the moving speed of the ultrasound probe 101 is greater than a predetermined threshold Th1 (step S501). In step S501, the speed detection function 182 detects the moving speed of the ultrasound probe 101. Then, in step S501, the determination function 184 determines whether the moving speed of the ultrasound probe 101 detected by the speed detection function 182 is greater than the threshold Th1.

超音波プローブ101の移動速度が所定の閾値Th1よりも大きいと判定された場合(ステップS501:Yes)には、ステップS502において、判別機能184は、以下に説明する処理を行う。 If it is determined that the moving speed of the ultrasound probe 101 is greater than the predetermined threshold Th1 (step S501: Yes), the determination function 184 performs the process described below in step S502.

例えば、ステップS502において、判別機能184は、第1のフレームレート及び第2のフレームレートの中から、判別結果を導出する際のフレームレートとして、第1のフレームレートを選択する。 For example, in step S502, the determination function 184 selects the first frame rate from the first frame rate and the second frame rate as the frame rate for deriving the determination result.

また、例えば、ステップS502において、判別機能184は、第1の導出処理及び第3の導出処理の中から、判別結果を導出する際の導出処理として、第1の導出処理を選択する。ここで、変形例2に係る第1の導出処理は、先の図7に示す第1の検出処理である。また、変形例2に係る第3の導出処理は、先の図7に示す第1の検出処理及び第2の検出処理である。 Further, for example, in step S502, the determination function 184 selects the first derivation process from the first derivation process and the third derivation process as the derivation process when deriving the determination result. Here, the first derivation process according to the second modification is the first detection process shown in FIG. 7 above. Further, the third derivation process according to the second modification is the first detection process and the second detection process shown in FIG. 7 above.

上述したように、第2の検出処理では、第1の検出処理において検出された特徴部位の中から、第1の検出処理において過検出を除く特徴部位を、最終的に、特徴部位として検出する。このため、変形例2において、第3の導出処理は、第1の導出処理よりも、超音波画像に特徴部位が含まれるか否かを判別した結果である第1の判別結果を精度良く導出することが可能である。一方で、第1の導出処理は、第3の導出処理に比べて処理負荷が低い。 As described above, in the second detection process, from among the characteristic parts detected in the first detection process, characteristic parts excluding overdetections in the first detection process are finally detected as characteristic parts. . Therefore, in Modification 2, the third derivation process derives the first discrimination result, which is the result of determining whether or not the ultrasound image includes a characteristic region, with higher accuracy than the first derivation process. It is possible to do so. On the other hand, the first derivation process has a lower processing load than the third derivation process.

ステップS501で肯定判定(ステップS501:Yes)された場合には、第1の判別結果の精度が良好なことよりもフレームレートが高いことが優先されると考えられる。そこで、ステップS502では、判別機能184は、複数の種類の導出処理の中から、比較的小さい処理負荷で、超音波画像に特徴部位が含まれるか否かの判別を行う第1の導出処理を選択する。 If an affirmative determination is made in step S501 (step S501: Yes), it is considered that a high frame rate is prioritized over a high accuracy of the first determination result. Therefore, in step S502, the determination function 184 selects a first derivation process from among the plurality of types of derivation processes that determines whether or not the ultrasound image includes a characteristic region with a relatively small processing load. select.

また、判別機能184は、第1の導出処理を実行する場合には、フレームレートを高くすることができる。したがって、上述したように、判別機能184は、ステップS502において、複数の種類のフレームレートの中から、比較的高い第1のフレームレートを選択する。 Further, the determination function 184 can increase the frame rate when executing the first derivation process. Therefore, as described above, the determination function 184 selects a relatively high first frame rate from among the plurality of types of frame rates in step S502.

そして、ステップS503では、判別機能184は、選択された第1の導出処理(第1の検出処理)を実行する。また、ステップS503では、制御機能181は、選択された第1のフレームレートで各種の処理を行うように、送信回路110、受信回路120、Bモード処理回路130、ドプラ処理回路140、画像生成回路150、取得機能183、判別機能184、マーカ情報生成機能185及び表示制御機能186を制御する。 Then, in step S503, the determination function 184 executes the selected first derivation process (first detection process). Further, in step S503, the control function 181 controls the transmitting circuit 110, the receiving circuit 120, the B-mode processing circuit 130, the Doppler processing circuit 140, and the image generation circuit to perform various processing at the selected first frame rate. 150, an acquisition function 183, a discrimination function 184, a marker information generation function 185, and a display control function 186 are controlled.

また、ステップS503では、マーカ情報生成機能185は、第1の検出処理により検出された特徴部位に基づいて、超音波画像の検出結果を示すマーカ情報を生成する。例えば、マーカ情報生成機能185は、ステップS503で、第1の検出処理により特徴部位が検出される度に、第1の実施形態と同様に、特徴部位として検出された範囲を表す矩形のマーカを示すマーカ情報を生成する。 Further, in step S503, the marker information generation function 185 generates marker information indicating the detection result of the ultrasound image based on the characteristic region detected by the first detection process. For example, in step S503, the marker information generation function 185 generates a rectangular marker representing the range detected as a characteristic region, as in the first embodiment, every time a characteristic region is detected by the first detection process. Generate marker information to indicate.

そして、マーカ情報生成機能185は、第1の実施形態と同様に、マーカ情報を生成する度に、超音波画像に、マーカ情報により示されるマーカを重畳させる。そして、マーカ情報生成機能185は、第1の実施形態と同様に、マーカが重畳された超音波画像を示す超音波画像データを画像メモリ160に記憶させる。 Then, similarly to the first embodiment, the marker information generation function 185 superimposes the marker indicated by the marker information on the ultrasound image every time marker information is generated. Then, the marker information generation function 185 causes the image memory 160 to store ultrasound image data indicating the ultrasound image on which the marker is superimposed, as in the first embodiment.

また、ステップS503において、表示制御機能186は、第1の実施形態と同様に、画像メモリ160に記憶された表示用の超音波画像データにより示される超音波画像をディスプレイ103に表示させる。すなわち、ステップS503では、マーカが重畳された超音波画像、及び、マーカが重畳されていない超音波画像が、リアルタイムでディスプレイ103に表示される。 Further, in step S503, the display control function 186 causes the display 103 to display an ultrasound image indicated by the display ultrasound image data stored in the image memory 160, as in the first embodiment. That is, in step S503, the ultrasound image with the marker superimposed and the ultrasound image without the marker superimposed are displayed on the display 103 in real time.

ステップS503の処理が完了すると、超音波診断装置1は、図18に示す処理を終了する。 When the process of step S503 is completed, the ultrasound diagnostic apparatus 1 ends the process shown in FIG. 18.

一方、超音波プローブ101の移動速度が所定の閾値Th1以下であると判定された場合(ステップS501:No)には、判別機能184は、超音波プローブ101の移動速度が、所定の閾値Th2よりも小さいか否かを判定する(ステップS504)。 On the other hand, if it is determined that the moving speed of the ultrasound probe 101 is less than or equal to the predetermined threshold Th1 (step S501: No), the determination function 184 determines that the moving speed of the ultrasound probe 101 is lower than the predetermined threshold Th2. It is determined whether or not the value is also smaller (step S504).

超音波プローブ101の移動速度が、閾値Th2よりも小さいと判定された場合(ステップS504:Yes)、ステップS505において、判別機能184は、以下に説明する処理を行う。 If it is determined that the moving speed of the ultrasound probe 101 is smaller than the threshold Th2 (step S504: Yes), in step S505, the determination function 184 performs the process described below.

ステップS504で肯定判定(ステップS504:Yes)された場合には、フレームレートが高いことよりも、第1の判別結果の精度が良好であることが優先されると考えられる。ここで、第3の導出処理は、第1の導出処理よりも、超音波画像に特徴部位が含まれるか否かを判別した結果である第1の判別結果を精度良く導出することが可能である。そこで、ステップS505において、判別機能184は、第1の導出処理及び第3の導出処理の中から、判別結果を導出する際の導出処理として、第3の導出処理を選択する。 If an affirmative determination is made in step S504 (step S504: Yes), it is considered that the accuracy of the first determination result is prioritized over a high frame rate. Here, the third derivation process is able to more accurately derive the first discrimination result, which is the result of determining whether or not the ultrasound image includes a characteristic region, than the first derivation process. be. Therefore, in step S505, the determination function 184 selects the third derivation process from the first derivation process and the third derivation process as the derivation process when deriving the determination result.

また、第3の導出処理は、第1の導出処理に比べて処理負荷が高い。このため、第3の導出処理を実行する場合には、フレームレートを低くすることが好ましい。そこで、ステップS505において、判別機能184は、第1のフレームレート及び第2のフレームレートの中から、判別結果を導出する際のフレームレートとして、第2のフレームレートを選択する。 Furthermore, the third derivation process has a higher processing load than the first derivation process. Therefore, when executing the third derivation process, it is preferable to lower the frame rate. Therefore, in step S505, the determination function 184 selects the second frame rate from the first frame rate and the second frame rate as the frame rate for deriving the determination result.

そして、ステップS506では、判別機能184は、選択された第3の導出処理に含まれる第1の検出処理を実行する。 Then, in step S506, the determination function 184 executes the first detection process included in the selected third derivation process.

なお、ステップS506、及び、以下で説明するS507では、制御機能181は、選択された第2のフレームレートで各種の処理を行うように、送信回路110、受信回路120、Bモード処理回路130、ドプラ処理回路140、画像生成回路150、取得機能183、判別機能184、マーカ情報生成機能185及び表示制御機能186を制御する。すなわち、制御機能181は、ステップS506,S507での各処理が、第2のフレームレートで行われるように制御する。 Note that in step S506 and S507 described below, the control function 181 controls the transmitting circuit 110, receiving circuit 120, B-mode processing circuit 130, It controls the Doppler processing circuit 140, the image generation circuit 150, the acquisition function 183, the discrimination function 184, the marker information generation function 185, and the display control function 186. That is, the control function 181 controls each process in steps S506 and S507 to be performed at the second frame rate.

そして、ステップS507では、判別機能184は、選択された第3の導出処理に含まれる第2の検出処理を実行し、最終的に、特徴部位を検出する。 Then, in step S507, the determination function 184 executes the second detection process included in the selected third derivation process, and finally detects the characteristic part.

また、ステップS507では、マーカ情報生成機能185は、第2の検出処理により最終的に検出された特徴部位に基づいて、超音波画像の検出結果を示すマーカ情報を生成する。例えば、マーカ情報生成機能185は、ステップS507で、第2の検出処理により特徴部位が最終的に検出される度に、第1の実施形態と同様に、特徴部位として検出された範囲を表す矩形のマーカを示すマーカ情報を生成する。 Further, in step S507, the marker information generation function 185 generates marker information indicating the detection result of the ultrasound image based on the characteristic region finally detected by the second detection process. For example, in step S507, the marker information generation function 185 generates a rectangle representing the range detected as the characteristic region, as in the first embodiment, each time a characteristic region is finally detected by the second detection process. Generate marker information indicating the marker.

そして、マーカ情報生成機能185は、第1の実施形態と同様に、マーカ情報を生成する度に、超音波画像に、マーカ情報により示されるマーカを重畳させる。そして、マーカ情報生成機能185は、第1の実施形態と同様に、マーカが重畳された超音波画像を示す超音波画像データを画像メモリ160に記憶させる。 Then, similarly to the first embodiment, the marker information generation function 185 superimposes the marker indicated by the marker information on the ultrasound image every time marker information is generated. Then, the marker information generation function 185 causes the image memory 160 to store ultrasound image data indicating the ultrasound image on which the marker is superimposed, as in the first embodiment.

また、ステップS507において、表示制御機能186は、第1の実施形態と同様に、画像メモリ160に記憶された表示用の超音波画像データにより示される超音波画像をディスプレイ103に表示させる。すなわち、ステップS507では、マーカが重畳された超音波画像、及び、マーカが重畳されていない超音波画像が、リアルタイムでディスプレイ103に表示される。 Further, in step S507, the display control function 186 causes the display 103 to display an ultrasound image indicated by the display ultrasound image data stored in the image memory 160, as in the first embodiment. That is, in step S507, the ultrasound image with the marker superimposed and the ultrasound image without the marker superimposed are displayed on the display 103 in real time.

ステップS507の処理が完了すると、超音波診断装置1は、図18に示す処理を終了する。 When the process of step S507 is completed, the ultrasonic diagnostic apparatus 1 ends the process shown in FIG. 18.

一方、超音波プローブ101の移動速度が、閾値Th2以上であると判定された場合(ステップS504:No)には、ステップS508で、超音波診断装置1は、以下に説明する処理を行う。 On the other hand, if it is determined that the moving speed of the ultrasound probe 101 is equal to or higher than the threshold Th2 (step S504: No), the ultrasound diagnostic apparatus 1 performs the process described below in step S508.

例えば、ステップS508で、超音波診断装置1は、ステップS503の処理と同様の処理を実行する。ただし、制御機能181は、所定のフレームレートで各種の処理を行うように、送信回路110、受信回路120、Bモード処理回路130、ドプラ処理回路140、画像生成回路150、取得機能183、判別機能184、マーカ情報生成機能185及び表示制御機能186を制御する。かかる所定のフレームレートは、第1のフレームレート及び第2のフレームレート以外のフレームレートであってもよいし、第1のフレームレート又は第2のフレームレートであってもよい。 For example, in step S508, the ultrasound diagnostic apparatus 1 performs the same process as the process in step S503. However, the control function 181 includes a transmission circuit 110, a reception circuit 120, a B-mode processing circuit 130, a Doppler processing circuit 140, an image generation circuit 150, an acquisition function 183, and a discrimination function so as to perform various processes at a predetermined frame rate. 184, controls the marker information generation function 185 and the display control function 186. The predetermined frame rate may be a frame rate other than the first frame rate and the second frame rate, or may be the first frame rate or the second frame rate.

ステップS508の処理が完了すると、超音波診断装置1は、図18に示す処理を終了する。 When the process of step S508 is completed, the ultrasonic diagnostic apparatus 1 ends the process shown in FIG. 18.

図18に示す処理では、判別機能184は、超音波プローブ101の移動速度に応じて、複数の超音波画像データの複数の種類のフレームレートの中から、判別結果を導出する際のフレームレートを選択する処理を実行する。 In the process shown in FIG. 18, the discrimination function 184 selects a frame rate for deriving a discrimination result from among a plurality of types of frame rates of a plurality of ultrasound image data according to the moving speed of the ultrasound probe 101. Execute the selected process.

また、図18に示す処理では、判別機能184は、超音波プローブ101の移動速度に応じて、判別結果を導出するための複数の種類の導出処理の中から、判別結果を導出する際の導出処理を選択する処理を実行する。 In addition, in the process shown in FIG. 18, the discrimination function 184 performs a derivation process for deriving a discrimination result from among a plurality of types of derivation processes for deriving a discrimination result according to the moving speed of the ultrasound probe 101. Execute the process that selects the process.

したがって、第1の実施形態及び第2の実施形態の変形例2に係る超音波診断装置1によれば、第1の実施形態及び第2の実施形態と同様に、超音波プローブ101の移動速度に応じて適切な処理を行うことができる。また、変形例2に係る超音波診断装置1によれば、第1の実施形態及び第2の実施形態と同様に、特徴部位に関する判別結果を精度よく得ることができる。 Therefore, according to the ultrasound diagnostic apparatus 1 according to the second modification of the first embodiment and the second embodiment, similarly to the first embodiment and the second embodiment, the moving speed of the ultrasound probe 101 is Appropriate processing can be performed depending on the situation. Further, according to the ultrasonic diagnostic apparatus 1 according to the second modification, similarly to the first embodiment and the second embodiment, it is possible to accurately obtain a discrimination result regarding a characteristic region.

(第1の実施形態及び第2の実施形態の変形例3)
上述した第1の実施形態及び第2の実施形態では、判別機能184が、第1の検出処理及び第2の検出処理を実行する場合について説明した。しかしながら、判別機能184は、第1の検出処理及び第2の検出処理に代えて、別な処理を実行してもよい。そこで、このような実施形態を、第1の実施形態及び第2の実施形態の変形例3として説明する。
(Variation 3 of the first embodiment and the second embodiment)
In the first embodiment and second embodiment described above, the case where the determination function 184 executes the first detection process and the second detection process has been described. However, the determination function 184 may perform another process instead of the first detection process and the second detection process. Therefore, such an embodiment will be described as a third modification of the first embodiment and the second embodiment.

なお、変形例3の説明では、第1の実施形態及び第2の実施形態と異なる点を主に説明し、第1の実施形態及び第2の実施形態と同様の構成及び処理については説明を省略する場合がある。 In addition, in the explanation of Modification 3, the points that are different from the first embodiment and the second embodiment will be mainly explained, and the same configuration and processing as the first embodiment and the second embodiment will not be explained. May be omitted.

変形例3において、運用時の第1段階目において、判別機能184が第1の学習済みモデル11aを用いて実行する第1の判別処理の一例について説明する。図19は、第1の実施形態及び第2の実施形態の変形例3に係る第1の判別処理の一例の流れを示すフローチャートである。 In Modification 3, an example of the first discrimination process executed by the discrimination function 184 using the first trained model 11a in the first stage of operation will be described. FIG. 19 is a flowchart showing an example of the flow of the first determination process according to the third modification of the first embodiment and the second embodiment.

図19に示すように、判別機能184は、第1の判別処理において、第3の検出処理を実行する(ステップS601)とともに、第3の検出処理と並行して第4の検出処理を実行し(ステップS602)、第5の検出処理を実行する(ステップS603)。 As shown in FIG. 19, the discrimination function 184 executes the third detection process in the first discrimination process (step S601), and also executes the fourth detection process in parallel with the third detection process. (Step S602), and a fifth detection process is executed (Step S603).

まず、ステップS601で実行される第3の検出処理について説明する。判別機能184は、検索窓と第2の検索用学習済みモデルと検索アルゴリズムとを用いて、操作者により超音波画像に設定された検索範囲における特徴部位を検索する。例えば、判別機能184は、検索範囲内で検索窓を複数の位置に移動させる。また、判別機能184は、各位置において、検索窓内の画像情報を、第2の検索用学習済みモデルと検索アルゴリズムとを用いて解析することにより、各検索窓内の画像情報が特徴部位に相当する確率(第3の確率)を算出する。 First, the third detection process executed in step S601 will be described. The determination function 184 uses the search window, the second trained model for search, and the search algorithm to search for a characteristic part in the search range set in the ultrasound image by the operator. For example, the determination function 184 moves the search window to multiple positions within the search range. In addition, the discrimination function 184 analyzes the image information in the search window at each position using the second trained model for search and the search algorithm, so that the image information in each search window becomes a characteristic part. The corresponding probability (third probability) is calculated.

検索窓とは、例えば、第2の検索用学習済みモデルの特徴と比較される検索範囲内の領域の単位である。第2の検索用学習済みモデルとは、例えば、特徴部位の標本となる画像情報を学習したモデルである。検索アルゴリズムとは、上述した第3の確率を算出し、処理対象の超音波画像において特徴部位に相当する画像情報を検索するためのアルゴリズムである。 The search window is, for example, a unit of area within the search range that is compared with the features of the second trained model for search. The second trained model for search is, for example, a model that has learned image information that is a sample of a characteristic part. The search algorithm is an algorithm for calculating the third probability described above and searching for image information corresponding to a characteristic region in the ultrasound image to be processed.

第2の検索用学習済みモデルは、特徴部位を示す第1のパターンの一例である。 The second trained model for search is an example of the first pattern indicating a characteristic part.

そして、判別機能184は、算出された第3の確率が所定の閾値以上である場合に、検索窓で囲まれた範囲を、特徴部位(特徴部位の範囲)として検出する。すなわち、判別機能184は、超音波画像の一部分の特徴と、特徴部位を示す第2の検索用学習済みモデルの特徴とが類似している度合いを示す第3の確率が閾値以上である場合には、超音波画像に特徴部位が含まれると判別する。また、判別機能184は、第3の確率が閾値未満であるときには、超音波画像に特徴部位が含まれないと判別する。 Then, when the calculated third probability is greater than or equal to a predetermined threshold, the determination function 184 detects the range surrounded by the search window as a characteristic part (range of characteristic parts). That is, the discrimination function 184 determines that when the third probability indicating the degree of similarity between the feature of a portion of the ultrasound image and the feature of the second search trained model indicating the characteristic region is greater than or equal to the threshold value. determines that a characteristic region is included in the ultrasound image. Furthermore, when the third probability is less than the threshold value, the determination function 184 determines that the ultrasound image does not include the characteristic region.

そして、判別機能184は、1フレーム分の超音波画像データ毎に、超音波画像に対する第3の検出処理における検索結果(検出結果)を記憶回路170に記憶させる。例えば、判別機能184は、1フレームの超音波画像から特徴部位を検出することができた場合には、特徴部位の位置を示す位置情報を第3の検出処理における検索結果として記憶回路170に記憶させる。なお、ここでいう特徴部位の位置は、超音波画像データの画像空間における位置である。 Then, the determination function 184 causes the storage circuit 170 to store the search result (detection result) in the third detection process for the ultrasound image for each frame of ultrasound image data. For example, if the discrimination function 184 is able to detect a characteristic region from one frame of ultrasound image, the determination function 184 stores position information indicating the position of the characteristic region in the storage circuit 170 as a search result in the third detection process. let Note that the position of the characteristic region referred to here is the position in the image space of ultrasound image data.

また、1フレームの超音波画像から特徴部位が検出されなかった場合には、判別機能184は、特徴部位が検出されなかったことを示す情報を第3の検出処理における検索結果として記憶回路170に記憶させる。 Further, when a characteristic region is not detected from one frame of the ultrasound image, the discrimination function 184 stores information indicating that a characteristic region has not been detected in the storage circuit 170 as a search result in the third detection process. Make me remember.

なお、判別機能184は、検索窓内の画像情報の特徴と第2の検索用学習済みモデルの特徴とが類似している度合いを示す指標の一例として、第3の確率を算出する場合について説明した。しかしながら、判別機能184は、第3の確率に代えて、検索窓内の画像情報の特徴と第2の検索用学習済みモデルの特徴とが類似している度合いを示す類似度等の他の指標を算出してもよい。 Note that the determination function 184 will explain a case where the third probability is calculated as an example of an index indicating the degree of similarity between the features of the image information in the search window and the features of the second trained model for search. did. However, instead of using the third probability, the discrimination function 184 uses other indicators such as similarity, which indicates the degree to which the features of the image information in the search window and the features of the second trained model for search are similar. may be calculated.

以上、ステップS601で実行される第3の検出処理の一例について説明した。図20は、第1の実施形態及び第2の実施形態の変形例3に係る第3の検出処理の結果の一例を示す図である。図20に示す「特徴部位と判定した結果」は、第3の検出処理により特徴部位が検出された場合の検索窓30内の画像情報の一例を示す。図20に示す「特徴部位ではないと判定した結果」は、第3の検出処理により特徴部位が検出されなかった場合の検索窓30内の画像情報の一例を示す。なお、図20には、第3の検出処理において、検索範囲内の複数の位置に検索窓30が配置されて、各位置で第3の確率が算出された結果の例として、8ヶ所の画像情報が示されている。 An example of the third detection process executed in step S601 has been described above. FIG. 20 is a diagram illustrating an example of the results of the third detection process according to the third modification of the first embodiment and the second embodiment. “Result of determination as a characteristic region” shown in FIG. 20 shows an example of image information in the search window 30 when a characteristic region is detected by the third detection process. The “result of determining that it is not a characteristic region” shown in FIG. 20 shows an example of image information in the search window 30 when a characteristic region is not detected by the third detection process. In addition, FIG. 20 shows images of eight locations as an example of the results in which the search window 30 is placed at a plurality of positions within the search range in the third detection process and the third probability is calculated at each position. Information is shown.

図20に示すように、判別機能184は、第3の検出処理において、4カ所の位置で特徴部位を検出する。具体的には、図20に示すように、判別機能184は、検索窓30内の4つの画像情報50a~50dを検出する。 As shown in FIG. 20, the discrimination function 184 detects characteristic parts at four positions in the third detection process. Specifically, as shown in FIG. 20, the determination function 184 detects four pieces of image information 50a to 50d within the search window 30.

画像情報50aは、過検出された画像情報である。画像情報50bは、実際の特徴部位31eが描出された画像情報である。画像情報50cは、実際の特徴部位31fが描出された画像情報である。画像情報50dは、過検出された画像情報である。すなわち、図20に示す場合には、特徴部位と判定された4つの画像情報のうち、2つの画像情報が過検出されている。 Image information 50a is over-detected image information. The image information 50b is image information in which the actual characteristic region 31e is depicted. The image information 50c is image information in which the actual characteristic region 31f is depicted. The image information 50d is over-detected image information. That is, in the case shown in FIG. 20, two of the four pieces of image information determined to be characteristic parts are overdetected.

また、図20に示すように、判別機能184は、第3の検出処理において、4カ所の位置で特徴部位を検出していない。具体的には、図20に示すように、判別機能184は、特徴部位として検索窓30内の4つの画像情報50e~50hを検出していない。なお、判別機能184は、画像情報50eに特徴部位31gが含まれているにも関わらず、画像情報50eを検出していない。 Further, as shown in FIG. 20, the determination function 184 does not detect characteristic parts at four positions in the third detection process. Specifically, as shown in FIG. 20, the determination function 184 does not detect the four pieces of image information 50e to 50h within the search window 30 as characteristic parts. Note that the determination function 184 does not detect the image information 50e even though the image information 50e includes the characteristic region 31g.

次に、ステップS602で実行される第4の検出処理について説明する。判別機能184は、検索窓と第3の検索用学習済みモデルと検索アルゴリズムとを用いて、操作者により超音波画像に設定された検索範囲における特徴部位を検索する。例えば、判別機能184は、検索範囲内で検索窓を複数の位置に移動させる。また、判別機能184は、各位置において、検索窓内の画像情報を、第3の検索用学習済みモデルと検索アルゴリズムとを用いて解析することにより、各検索窓内の画像情報が特徴部位に相当する確率(第4の確率)を算出する。 Next, the fourth detection process executed in step S602 will be explained. The determination function 184 uses the search window, the third trained model for search, and the search algorithm to search for a characteristic part in the search range set in the ultrasound image by the operator. For example, the determination function 184 moves the search window to multiple positions within the search range. In addition, the discrimination function 184 analyzes the image information in the search window at each position using the third trained model for search and the search algorithm, so that the image information in each search window becomes a characteristic part. A corresponding probability (fourth probability) is calculated.

検索窓とは、例えば、第3の検索用学習済みモデルの特徴と比較される検索範囲内の領域の単位である。第3の検索用学習済みモデルとは、例えば、特徴部位の標本となる画像情報を学習したモデルである。ここで、第3の検索用学習済みモデルは、第2の検索用学習済みモデルとは異なるモデルである。検索アルゴリズムとは、上述した第4の確率を算出し、処理対象の超音波画像において特徴部位に相当する画像情報を検索するためのアルゴリズムである。 The search window is, for example, a unit of area within the search range that is compared with the features of the third trained model for search. The third learned model for search is, for example, a model that has learned image information that is a sample of a characteristic part. Here, the third trained model for search is a different model from the second trained model for search. The search algorithm is an algorithm for calculating the above-mentioned fourth probability and searching for image information corresponding to a characteristic region in an ultrasound image to be processed.

例えば、上述した第2の検索用学習済みモデルは、特徴部位が描出された第1の画像情報群と、特徴部位が描出されていない第2の画像情報群とが用いられて行われた学習により得られるモデルである。一方、第3の検索用学習済みモデルは、特徴部位が描出された第3の画像情報群と、特徴部位が描出されていない第2の画像情報群とが用いられて行われた学習により得られるモデルである。すなわち、第2の検索用学習済みモデルと、第3の検索用学習済みモデルとでは、学習時に、第2の画像情報群が共通して用いられている。 For example, the second trained model for search described above is trained using a first group of image information in which characteristic parts are depicted and a second group of image information in which characteristic parts are not depicted. This is the model obtained by On the other hand, the third trained model for search is obtained through learning performed using the third image information group in which characteristic parts are depicted and the second image information group in which characteristic parts are not depicted. This is a model that can be used. That is, the second image information group is commonly used in the second search trained model and the third search trained model during learning.

このため、第2の検索用学習済みモデルと、第3の検索用学習済みモデルとでは、例えば、同じ特徴部位(例えば、腫瘤)が描出された画像情報でも異なる画像情報を用いた学習が行われているため、検出できる特徴部位が異なる。一方、第2の検索用学習済みモデルと、第3の検索用学習済みモデルとでは、特徴部位が描出されていない画像情報群として、同一の画像情報群(第2の画像情報群)を用いた学習が行われている。このため、第2の検索用学習済みモデルと、第3の検索用学習済みモデルとでは、特徴部位ではないと正しく判断される画像が共通し、かつ、過検出される画像も共通する。 Therefore, the second search trained model and the third search trained model perform learning using different image information, even if the same feature region (for example, a tumor) is depicted. Therefore, the characteristic parts that can be detected are different. On the other hand, the second trained model for search and the third trained model for search use the same image information group (second image information group) as the image information group in which the characteristic part is not depicted. learning is being carried out. Therefore, the second trained model for search and the third trained model for search have the same images that are correctly determined not to be characteristic parts, and also have the same images that are overdetected.

第3の検索用学習済みモデルは、特徴部位を示す第1のパターンとは異なる第2のパターンの一例である。 The third learned model for search is an example of a second pattern that is different from the first pattern indicating a characteristic part.

そして、判別機能184は、算出された第4の確率が所定の閾値以上である場合に、検索窓で囲まれた範囲を、特徴部位(特徴部位の範囲)として検出する。すなわち、判別機能184は、超音波画像の一部分の特徴と、特徴部位を示す第3の検索用学習済みモデルの特徴とが類似している度合いを示す第4の確率が閾値以上である場合には、超音波画像に特徴部位が含まれると判別する。また、判別機能184は、第4の確率が閾値未満であるときには、超音波画像に特徴部位が含まれないと判別する。 Then, when the calculated fourth probability is greater than or equal to a predetermined threshold, the determination function 184 detects the range surrounded by the search window as a characteristic part (range of characteristic parts). That is, the discrimination function 184 determines that when the fourth probability indicating the degree of similarity between the feature of a portion of the ultrasound image and the feature of the third search trained model indicating the characteristic region is greater than or equal to the threshold value. determines that a characteristic region is included in the ultrasound image. Furthermore, when the fourth probability is less than the threshold value, the determination function 184 determines that the ultrasound image does not include the characteristic region.

そして、判別機能184は、1フレーム分の超音波画像データ毎に、超音波画像に対する第4の検出処理における検索結果(検出結果)を記憶回路170に記憶させる。例えば、判別機能184は、1フレームの超音波画像から特徴部位が検出された場合には、特徴部位の位置を示す位置情報を第4の検出処理における検索結果として記憶回路170に記憶させる。なお、ここでいう特徴部位の位置は、超音波画像データの画像空間における位置である。 Then, the determination function 184 causes the storage circuit 170 to store the search result (detection result) in the fourth detection process for the ultrasound image for each frame of ultrasound image data. For example, when a characteristic region is detected from one frame of an ultrasound image, the determination function 184 causes the storage circuit 170 to store position information indicating the position of the characteristic region as a search result in the fourth detection process. Note that the position of the characteristic region referred to here is the position in the image space of ultrasound image data.

また、判別機能184は、1フレームの超音波画像から特徴部位が検出されなかった場合には、特徴部位が検出されなかったことを示す情報を第4の検出処理における検索結果として記憶回路170に記憶させる。 Further, when a characteristic region is not detected from one frame of the ultrasound image, the determination function 184 stores information indicating that a characteristic region has not been detected in the storage circuit 170 as a search result in the fourth detection process. Make me remember.

なお、判別機能184は、検索窓内の画像情報の特徴と第3の検索用学習済みモデルの特徴とが類似している度合いを示す指標の一例として、第4の確率を算出する場合について説明した。しかしながら、判別機能184は、第4の確率に代えて、検索窓内の画像情報の特徴と第3の検索用学習済みモデルの特徴とが類似している度合いを示す類似度等の他の指標を算出してもよい。 Note that the determination function 184 will explain a case where the fourth probability is calculated as an example of an index indicating the degree of similarity between the features of the image information in the search window and the features of the third trained model for search. did. However, instead of using the fourth probability, the discrimination function 184 uses other indicators such as similarity, which indicates the degree to which the features of the image information in the search window and the features of the third trained model for search are similar. may be calculated.

以上、ステップS602で実行される第4の検出処理の一例について説明した。図21は、第1の実施形態及び第2の実施形態の変形例3に係る第4の検出処理の結果の一例を示す図である。図21に示す「特徴部位と判定した結果」は、第4の検出処理により特徴部位が検出された場合の検索窓30内の画像情報の一例を示す。図21に示す「特徴部位ではないと判定した結果」は、第4の検出処理により特徴部位が検出されなかった場合の検索窓30内の画像情報の一例を示す。なお、図21には、第4の検出処理において、検索範囲内の複数の位置に検索窓30が配置されて、各位置で第4の確率が算出された結果の例として、8ヶ所の画像情報が示されている。 An example of the fourth detection process executed in step S602 has been described above. FIG. 21 is a diagram illustrating an example of the results of the fourth detection process according to the third modification of the first embodiment and the second embodiment. “Result of determination as a characteristic region” shown in FIG. 21 shows an example of image information in the search window 30 when a characteristic region is detected by the fourth detection process. “Result of determination that it is not a characteristic region” shown in FIG. 21 shows an example of image information in the search window 30 when a characteristic region is not detected by the fourth detection process. Note that FIG. 21 shows images of eight locations as an example of the results of the fourth detection process in which the search window 30 is placed at multiple positions within the search range and the fourth probability is calculated at each position. Information is shown.

図21に示すように、判別機能184は、第4の検出処理において、4カ所の位置で特徴部位を検出する。具体的には、図21に示すように、判別機能184は、検索窓30内の4つの画像情報50i~50lを検出する。 As shown in FIG. 21, the discrimination function 184 detects characteristic parts at four positions in the fourth detection process. Specifically, as shown in FIG. 21, the determination function 184 detects four pieces of image information 50i to 50l within the search window 30.

画像情報50iは、実際の特徴部位31hが描出された画像情報である。画像情報50jは、過検出された画像情報である。画像情報50kは、実際の特徴部位31iが描出された画像情報である。画像情報50lは、過検出された画像情報である。すなわち、図21に示す場合には、特徴部位と判定された4つの画像情報のうち、2つの画像情報が過検出されている。 The image information 50i is image information in which the actual characteristic region 31h is depicted. Image information 50j is over-detected image information. The image information 50k is image information in which the actual characteristic region 31i is depicted. The image information 50l is over-detected image information. That is, in the case shown in FIG. 21, two of the four pieces of image information determined to be characteristic parts are overdetected.

また、図21に示すように、判別機能184は、第4の検出処理において、4カ所の位置で特徴部位を検出していない。具体的には、図21に示すように、判別機能184は、特徴部位として検索窓30内の4つの画像情報50m~50pを検出していない。なお、判別機能184は、画像情報50oに特徴部位31jが含まれているにも関わらず、画像情報50oを検出していない。同様に、判別機能184は、画像情報50pに特徴部位31kが含まれているにも関わらず、画像情報50pを検出していない。 Further, as shown in FIG. 21, the determination function 184 does not detect characteristic parts at four positions in the fourth detection process. Specifically, as shown in FIG. 21, the determination function 184 does not detect the four pieces of image information 50m to 50p within the search window 30 as characteristic parts. Note that the determination function 184 does not detect the image information 50o even though the image information 50o includes the characteristic region 31j. Similarly, the determination function 184 does not detect the image information 50p even though the characteristic region 31k is included in the image information 50p.

次に、ステップS603で実行される第5の検出処理について説明する。第5の検出処理では、判別機能184は、第3の検出処理の検出結果及び第4の検出処理の検出結果を用いて、最終的に、特徴部位を検出する。 Next, the fifth detection process executed in step S603 will be explained. In the fifth detection process, the discrimination function 184 uses the detection results of the third detection process and the fourth detection process to finally detect the characteristic region.

ここで、上述したように、第3の検出処理において第2の検索用学習済みモデルが用いられて検出される画像情報のうちの実際の特徴部位が描出された画像情報と、第4の検出処理において第3の検索用学習済みモデルが用いられて検出される画像情報のうちの実際の特徴部位が描出された画像情報とは、異なる。 Here, as described above, the image information in which the actual feature part is depicted out of the image information detected using the second search trained model in the third detection process, and the image information in which the actual feature part is depicted, and the fourth detection This differs from the image information in which the actual characteristic parts are depicted among the image information detected using the third trained search model in the process.

例えば、図20に示す画像情報50b及び画像情報50cと、図20に示す画像情報50i及び画像情報50kとは異なる。 For example, the image information 50b and 50c shown in FIG. 20 are different from the image information 50i and 50k shown in FIG.

しかしながら、上述したように、第3の検出処理において第2の検索用学習済みモデルが用いられて検出される画像情報のうちの過検出された画像情報と、第4の検出処理において第3の検索用学習済みモデルが用いられて検出される画像情報のうちの過検出された画像情報とは、一致(共通)する。すなわち、第3の検出処理と第4の検出処理とで、超音波画像上の過検出される部分は、同一である。 However, as described above, among the image information detected using the second search trained model in the third detection process, over-detected image information and the third detection process in the fourth detection process The over-detected image information among the image information detected using the trained search model matches (common). That is, the over-detected portions on the ultrasound image are the same in the third detection process and the fourth detection process.

例えば、図20に示す画像情報50aと図21に示す画像情報50jとは、一致する。また、図20に示す画像情報50dと図21に示す画像情報50lとは、一致する。 For example, the image information 50a shown in FIG. 20 and the image information 50j shown in FIG. 21 match. Furthermore, the image information 50d shown in FIG. 20 and the image information 50l shown in FIG. 21 match.

そこで、第5の検出処理では、判別機能184は、第3の検出処理で検出された特徴部位、及び、第4の検出処理で検出された特徴部位のうち、第3の検出処理及び第4の検出処理の2つの検出処理において共通して検出された特徴部位以外の特徴部位を検出する。 Therefore, in the fifth detection process, the discrimination function 184 selects the characteristic part detected in the third detection process and the characteristic part detected in the fourth detection process. A characteristic region other than the characteristic region commonly detected in the two detection processes of the detection process is detected.

例えば、第5の検出処理では、判別機能184は、第3の検出処理で検出された画像情報50a~50d及び第4の検出処理で検出された画像情報50i~50lを特定する。そして、第5の検出処理では、判別機能184は、特定した画像情報50a~50d,50i~50lのうち、2つの検出処理において共通して検出された画像情報50a,50d,50j,50lを特定する。 For example, in the fifth detection process, the determination function 184 identifies the image information 50a to 50d detected in the third detection process and the image information 50i to 50l detected in the fourth detection process. In the fifth detection process, the discrimination function 184 identifies image information 50a, 50d, 50j, and 50l that is commonly detected in the two detection processes among the identified image information 50a to 50d, and 50i to 50l. do.

図22は、第1の実施形態及び第2の実施形態の変形例3に係る第5の検出処理の結果の一例を示す図である。そして、第5の検出処理では、判別機能184は、画像情報50a~50d,50i~50lのうち、特定した画像情報50a,50d,50j,50l以外の図22に示す画像情報50b,50c,50i,50kを、最終的に、特徴部位として検出する。 FIG. 22 is a diagram illustrating an example of the results of the fifth detection process according to the third modification of the first embodiment and the second embodiment. In the fifth detection process, the determination function 184 selects the image information 50b, 50c, 50i shown in FIG. , 50k are finally detected as characteristic parts.

このように、判別機能184は、第2の検索用学習済みモデルを用いる第3の検出処理により検出された画像情報、及び、第3の検索用学習済みモデルを用いる第4の検出処理により検出された画像情報のうち、第3の検出処理及び第4の検出処理において共通して検出された画像情報を除く画像情報を、特徴部位として最終的に検出し、超音波画像に特徴部位が含まれると判別する。第3の検出処理は、第1の特徴部位検出処理の一例である。また、第4の検出処理は、第2の特徴部位検出処理の一例である。 In this way, the discrimination function 184 uses the image information detected by the third detection process using the second trained model for search, and the image information detected by the fourth detection process using the third trained model for search. Among the image information detected, image information excluding image information commonly detected in the third detection process and the fourth detection process is finally detected as a characteristic part, and the characteristic part is included in the ultrasound image. It is determined that the The third detection process is an example of the first characteristic part detection process. Further, the fourth detection process is an example of the second characteristic part detection process.

このように、変形例3に係る判別機能184は、過検出された特徴部位が最終的に検出される特徴部位の中に含まれないように、過検出された特徴部位を除くことで、最終的に特徴部位を検出する。したがって、変形例3に係る超音波診断装置1によれば、特徴部位に関する判別結果を更に精度よく得ることができる。 In this way, the discrimination function 184 according to the third modification removes the over-detected feature parts so that the over-detected feature parts are not included in the finally detected feature parts. Detect characteristic parts. Therefore, according to the ultrasonic diagnostic apparatus 1 according to the third modification, it is possible to obtain the determination result regarding the characteristic region with higher accuracy.

そして、判別機能184は、第5の検出処理において、最終的に検出した特徴部位の位置を示す位置情報を検索結果として記憶回路170に記憶させる。 Then, in the fifth detection process, the determination function 184 causes the storage circuit 170 to store position information indicating the position of the finally detected characteristic part as a search result.

また、判別機能184は、第5の検出処理において検出されなかった特徴部位については、特徴部位が検出されなかったことを示す情報を検索結果として記憶回路170に記憶させる。 Further, for the characteristic parts not detected in the fifth detection process, the determination function 184 causes the storage circuit 170 to store information indicating that the characteristic parts were not detected as a search result.

そして、マーカ情報生成機能185は、第5の検出処理により最終的に検出された特徴部位に基づいて、超音波画像の検出結果を示すマーカ情報を生成する。例えば、マーカ情報生成機能185は、第5の検出処理により最終的に特徴部位が検出される度に、第1の実施形態と同様に、特徴部位として検出された範囲を表す矩形のマーカを示すマーカ情報を生成する。 Then, the marker information generation function 185 generates marker information indicating the detection result of the ultrasound image based on the characteristic region finally detected by the fifth detection process. For example, every time a characteristic part is finally detected by the fifth detection process, the marker information generation function 185 indicates a rectangular marker representing the range detected as a characteristic part, similarly to the first embodiment. Generate marker information.

そして、マーカ情報生成機能185は、第1の実施形態と同様に、マーカ情報を生成する度に、超音波画像に、マーカ情報により示されるマーカを重畳させる。そして、マーカ情報生成機能185は、第1の実施形態と同様に、マーカが重畳された超音波画像を示す超音波画像データを画像メモリ160に記憶させる。 Then, similarly to the first embodiment, the marker information generation function 185 superimposes the marker indicated by the marker information on the ultrasound image every time marker information is generated. Then, the marker information generation function 185 causes the image memory 160 to store ultrasound image data indicating the ultrasound image on which the marker is superimposed, as in the first embodiment.

そして、表示制御機能186は、第1の実施形態と同様に、画像メモリ160に記憶された表示用の超音波画像データにより示される超音波画像をディスプレイ103に表示させる。すなわち、表示制御機能186は、マーカが重畳された超音波画像、及び、マーカが重畳されていない超音波画像を、リアルタイムでディスプレイ103に表示させる。 Then, the display control function 186 causes the display 103 to display an ultrasound image indicated by the display ultrasound image data stored in the image memory 160, as in the first embodiment. That is, the display control function 186 causes the display 103 to display the ultrasound image with the marker superimposed and the ultrasound image without the marker superimposed on the display 103 in real time.

以上、第1の実施形態及び第2の実施形態の変形例3に係る超音波診断装置1について説明した。変形例3に係る超音波診断装置1によれば、上述したように、特徴部位に関する判別結果を更に精度よく得ることができる。 The ultrasound diagnostic apparatus 1 according to the third modification of the first embodiment and the second embodiment has been described above. According to the ultrasonic diagnostic apparatus 1 according to the third modification, as described above, it is possible to obtain determination results regarding characteristic parts with higher accuracy.

(第1の実施形態及び第2の実施形態の変形例4)
上述した第1の実施形態及び第2の実施形態では、判別機能184が、超音波プローブ101の移動速度に応じて、複数の種類の導出処理の中から、判別結果を導出する際の導出処理を選択する場合について説明した。しかしながら、判別機能184が、超音波プローブ101の移動速度に応じて、複数の種類の学習済みモデルの中から、判別結果を導出する際に用いる学習済みモデルを選択してもよい。そこで、このような実施形態を、第1の実施形態及び第2の実施形態の変形例4として説明する。
(Modification 4 of the first embodiment and the second embodiment)
In the first and second embodiments described above, the determination function 184 performs a derivation process when deriving a determination result from among a plurality of types of derivation processes according to the moving speed of the ultrasound probe 101. We have explained the case of selecting . However, the discrimination function 184 may select a learned model to be used when deriving the discrimination result from among a plurality of types of learned models, depending on the moving speed of the ultrasound probe 101. Therefore, such an embodiment will be described as a fourth modification of the first embodiment and the second embodiment.

なお、第1の実施形態及び第2の実施形態の変形例4の説明では、第1の実施形態及び第2の実施形態と異なる点を主に説明し、第1の実施形態及び第2の実施形態と同様の構成及び処理については説明を省略する場合がある。 In addition, in the explanation of the fourth modification of the first embodiment and the second embodiment, the points different from the first embodiment and the second embodiment will be mainly explained, and the differences between the first embodiment and the second embodiment will be explained. Descriptions of configurations and processes similar to those in the embodiment may be omitted.

図23は、第1の実施形態及び第2の実施形態の変形例4に係る各種の学習済みモデル及び各種の学習条件の一例を説明するための図である。図23に例示するように、記憶回路170には、運用時の1段階目の処理に用いられる2つの第1の学習済みモデル11a_1,11a_2が記憶されている。また、記憶回路170には、運用時の2段階目の処理に用いられる2つの第2の学習済みモデル12a_1,12a_2が記憶されている。また、記憶回路170には、運用時の3段階目の処理に用いられる2つの第3の学習済みモデル13a_1,13a_2が記憶されている。このように、記憶回路170は、複数の段階のそれぞれに対応する複数の種類の学習済みモデルを記憶する。 FIG. 23 is a diagram for explaining examples of various learned models and various learning conditions according to Modification 4 of the first embodiment and the second embodiment. As illustrated in FIG. 23, the storage circuit 170 stores two first trained models 11a_1 and 11a_2 used for the first stage processing during operation. Furthermore, the storage circuit 170 stores two second trained models 12a_1 and 12a_2 used for second-stage processing during operation. Furthermore, the storage circuit 170 stores two third learned models 13a_1 and 13a_2 used for the third stage of processing during operation. In this way, the storage circuit 170 stores a plurality of types of trained models corresponding to each of the plurality of stages.

また、記憶回路170には、運用時の1段階目の処理に用いられる2つの第1の学習条件11b_1,11b_2が記憶されている。また、記憶回路170には、運用時の2段階目の処理に用いられる2つの第2の学習条件12b_1,12b_2が記憶されている。また、記憶回路170には、運用時の3段階目の処理に用いられる2つの第3の学習条件13b_1,13b_2が記憶されている。このように、記憶回路170は、複数の段階のそれぞれに対応する複数の種類の学習条件を記憶する。 Furthermore, the storage circuit 170 stores two first learning conditions 11b_1 and 11b_2 used for the first stage of processing during operation. Furthermore, the storage circuit 170 stores two second learning conditions 12b_1 and 12b_2 used for second-stage processing during operation. Furthermore, the storage circuit 170 stores two third learning conditions 13b_1 and 13b_2 used in the third stage of processing during operation. In this way, the storage circuit 170 stores a plurality of types of learning conditions corresponding to each of a plurality of stages.

第1の学習条件11b_1は、第1の学習済みモデル11a_1を用いた第1の判別処理において用いられる。第1の学習条件11b_2は、第1の学習済みモデル11a_2を用いた第1の判別処理において用いられる。 The first learning condition 11b_1 is used in the first discrimination process using the first learned model 11a_1. The first learning condition 11b_2 is used in the first discrimination process using the first learned model 11a_2.

第2の学習条件12b_1は、第2の学習済みモデル12a_1を用いた第2の判別処理において用いられる。第2の学習条件12b_2は、第2の学習済みモデル12a_2を用いた第2の判別処理において用いられる。 The second learning condition 12b_1 is used in the second discrimination process using the second trained model 12a_1. The second learning condition 12b_2 is used in the second discrimination process using the second trained model 12a_2.

第3の学習条件13b_1は、第3の学習済みモデル13a_1を用いた第3の判別処理において用いられる。第3の学習条件13b_2は、第3の学習済みモデル13a_2を用いた第3の判別処理において用いられる。 The third learning condition 13b_1 is used in the third discrimination process using the third learned model 13a_1. The third learning condition 13b_2 is used in the third discrimination process using the third trained model 13a_2.

このように、1つの学習済みモデルと1つの学習条件とが対応する。ここで、学習済みモデルを用いた判別処理の処理負荷は、この学習済みモデルに対応する学習条件に応じた負荷となる。 In this way, one learned model corresponds to one learning condition. Here, the processing load of the discrimination process using the trained model is a load according to the learning conditions corresponding to this trained model.

2つの第1の学習済みモデル11a_1,11a_2は、第1の判別処理に用いられる調整済みのパラメータである。ただし、第1の学習済みモデル11a_1を用いた第1の判別処理における判別精度は、第1の学習済みモデル11a_2を用いた第1の判別処理における判別精度よりも高い。一方で、第1の学習済みモデル11a_2を用いた第1の判別処理の処理負荷は、第1の学習済みモデル11a_1を用いた第1の判別処理の処理負荷よりも低い。 The two first learned models 11a_1 and 11a_2 are adjusted parameters used in the first discrimination process. However, the discrimination accuracy in the first discrimination process using the first trained model 11a_1 is higher than the discrimination accuracy in the first discrimination process using the first learned model 11a_2. On the other hand, the processing load of the first discrimination process using the first trained model 11a_2 is lower than the processing load of the first discrimination process using the first learned model 11a_1.

また、2つの第2の学習済みモデル12a_1,12a_2は、第2の判別処理に用いられる調整済みのパラメータである。ただし、第2の学習済みモデル12a_1を用いた第2の判別処理における判別精度は、第2の学習済みモデル12a_2を用いた第2の判別処理における判別精度よりも高い。一方で、第2の学習済みモデル12a_2を用いた第2の判別処理の処理負荷は、第2の学習済みモデル12a_1を用いた第2の判別処理の処理負荷よりも低い。 Furthermore, the two second trained models 12a_1 and 12a_2 are adjusted parameters used in the second discrimination process. However, the discrimination accuracy in the second discrimination process using the second trained model 12a_1 is higher than the discrimination accuracy in the second discrimination process using the second learned model 12a_2. On the other hand, the processing load of the second discrimination process using the second trained model 12a_2 is lower than the processing load of the second discrimination process using the second learned model 12a_1.

また、2つの第3の学習済みモデル13a_1,13a_2は、第3の判別処理に用いられる調整済みのパラメータである。ただし、第3の学習済みモデル13a_1を用いた第3の判別処理における判別精度は、第3の学習済みモデル13a_2を用いた第3の判別処理における判別精度よりも高い。一方で、第3の学習済みモデル13a_2を用いた第3の判別処理の処理負荷は、第3の学習済みモデル13a_1を用いた第3の判別処理の処理負荷よりも低い。 Furthermore, the two third learned models 13a_1 and 13a_2 are adjusted parameters used in the third discrimination process. However, the discrimination accuracy in the third discrimination process using the third trained model 13a_1 is higher than the discrimination accuracy in the third discrimination process using the third learned model 13a_2. On the other hand, the processing load of the third discrimination process using the third learned model 13a_2 is lower than the processing load of the third discrimination process using the third learned model 13a_1.

変形例4に係る判別機能184は、運用時の1段階目の第1の判別処理を行う場合に、超音波プローブ101の移動速度が閾値Th1よりも大きいときには、第1の判別処理を実行する際に用いる第1の学習済みモデルとして、第1の学習済みモデル11a_2を選択する。そして、判別機能184は、選択した第1の学習済みモデル11a_2と、対応する第1の学習条件11b_2を用いて、第1の判別処理を実行する。 The discrimination function 184 according to the fourth modification executes the first discrimination process when the moving speed of the ultrasound probe 101 is greater than the threshold Th1 when performing the first discrimination process in the first stage during operation. The first trained model 11a_2 is selected as the first trained model to be used. Then, the determination function 184 executes the first determination process using the selected first learned model 11a_2 and the corresponding first learning condition 11b_2.

また、判別機能184は、運用時の1段階目の第1の判別処理を行う場合に、超音波プローブ101の移動速度が閾値Th2よりも小さいときには、第1の判別処理を実行する際に用いる第1の学習済みモデルとして、第1の学習済みモデル11a_1を選択する。このように、判別機能184は、超音波プローブ101の移動速度が閾値Th2よりも小さい場合には、第1の学習済みモデル11a_2よりも、精度良く第1の判別結果を導出可能な第1の学習済みモデル11a_1を選択する。そして、判別機能184は、選択した第1の学習済みモデル11a_1と、対応する第1の学習条件11b_1を用いて、第1の判別処理を実行する。 Further, the discrimination function 184 is used when performing the first discrimination process in the first stage during operation, when the moving speed of the ultrasound probe 101 is smaller than the threshold value Th2. The first trained model 11a_1 is selected as the first trained model. In this way, when the moving speed of the ultrasound probe 101 is smaller than the threshold Th2, the discrimination function 184 selects the first model that can derive the first discrimination result with higher accuracy than the first trained model 11a_2. Select trained model 11a_1. Then, the determination function 184 executes the first determination process using the selected first learned model 11a_1 and the corresponding first learning condition 11b_1.

また、判別機能184は、運用時の2段階目の第2の判別処理を行う場合に、超音波プローブ101の移動速度が閾値Th1よりも大きいときには、第2の判別処理を実行する際に用いる第2の学習済みモデルとして、第2の学習済みモデル12a_2を選択する。そして、判別機能184は、選択した第2の学習済みモデル12a_2と、対応する第2の学習条件12b_2を用いて、第2の判別処理を実行する。 Further, the discrimination function 184 is used when performing the second discrimination process at the second stage during operation, when the moving speed of the ultrasound probe 101 is greater than the threshold Th1. The second trained model 12a_2 is selected as the second trained model. The determination function 184 then executes the second determination process using the selected second learned model 12a_2 and the corresponding second learning condition 12b_2.

また、判別機能184は、運用時の2段階目の第2の判別処理を行う場合に、超音波プローブ101の移動速度が閾値Th2よりも小さいときには、第2の判別処理を実行する際に用いる第2の学習済みモデルとして、第2の学習済みモデル12a_1を選択する。このように、判別機能184は、超音波プローブ101の移動速度が閾値Th2よりも小さい場合には、第2の学習済みモデル12a_2よりも、精度良く第2の判別結果を導出可能な第2の学習済みモデル12a_1を選択する。そして、判別機能184は、選択した第2の学習済みモデル12a_1と、対応する第2の学習条件12b_1を用いて、第2の判別処理を実行する。 In addition, the discrimination function 184 is used when performing the second discrimination process at the second stage during operation, when the moving speed of the ultrasound probe 101 is smaller than the threshold Th2. The second trained model 12a_1 is selected as the second trained model. In this way, when the moving speed of the ultrasound probe 101 is smaller than the threshold Th2, the discrimination function 184 uses a second model that can derive the second discrimination result more accurately than the second trained model 12a_2. Select trained model 12a_1. Then, the determination function 184 executes a second determination process using the selected second learned model 12a_1 and the corresponding second learning condition 12b_1.

また、判別機能184は、運用時の3段階目の第3の判別処理を行う場合に、超音波プローブ101の移動速度が閾値Th1よりも大きいときには、第3の判別処理を実行する際に用いる第3の学習済みモデルとして、第3の学習済みモデル13a_2を選択する。そして、判別機能184は、選択した第3の学習済みモデル13a_2と、対応する第3の学習条件13b_2を用いて、第3の判別処理を実行する。 Further, the discrimination function 184 is used when performing the third discrimination process at the third stage during operation, when the moving speed of the ultrasound probe 101 is greater than the threshold Th1. The third trained model 13a_2 is selected as the third trained model. Then, the determination function 184 executes a third determination process using the selected third learned model 13a_2 and the corresponding third learning condition 13b_2.

また、判別機能184は、運用時の3段階目の第3の判別処理を行う場合に、超音波プローブ101の移動速度が閾値Th2よりも小さいときには、第3の判別処理を実行する際に用いる第3の学習済みモデルとして、第3の学習済みモデル13a_1を選択する。このように、判別機能184は、超音波プローブ101の移動速度が閾値Th2よりも小さい場合には、第3の学習済みモデル13a_2よりも、精度良く第3の判別結果を導出可能な第3の学習済みモデル13a_1を選択する。そして、判別機能184は、選択した第3の学習済みモデル13a_1と、対応する第3の学習条件13b_1を用いて、第3の判別処理を実行する。 Further, the discrimination function 184 is used when performing the third discrimination process at the third stage during operation, when the moving speed of the ultrasound probe 101 is smaller than the threshold Th2. The third trained model 13a_1 is selected as the third trained model. In this way, when the moving speed of the ultrasound probe 101 is smaller than the threshold Th2, the discrimination function 184 uses the third model that can derive the third discrimination result with higher accuracy than the third learned model 13a_2. Select trained model 13a_1. Then, the determination function 184 executes a third determination process using the selected third learned model 13a_1 and the corresponding third learning condition 13b_1.

上述したように、判別機能184は、超音波プローブ101の移動速度に応じて、複数の種類の学習済みモデルの中から、判別結果を導出する際に用いられる学習済みモデル及び学習条件を選択する処理を実行する。したがって、変形例4に係る超音波診断装置1は、超音波プローブ101の移動速度に応じて、適切な処理を実行することができる。なお、上述した学習済みモデル及び学習条件を選択する処理は、第3の選択処理の一例である。 As described above, the discrimination function 184 selects a trained model and learning conditions to be used when deriving a discrimination result from among a plurality of types of trained models, depending on the moving speed of the ultrasound probe 101. Execute processing. Therefore, the ultrasound diagnostic apparatus 1 according to the fourth modification can perform appropriate processing depending on the moving speed of the ultrasound probe 101. Note that the process of selecting the trained model and learning conditions described above is an example of the third selection process.

(第1の実施形態及び第2の実施形態の変形例5)
上述した変形例4では、判別機能184が、超音波プローブ101の移動速度に応じて、複数の種類の学習済みモデルの中から、判別結果を導出する際に用いられる学習済みモデル及び学習条件を選択する場合について説明した。しかしながら、判別機能184は、リアルタイムで判別結果を導出するのか、又は、後処理として判別結果を導出するのかに応じて、複数の種類の学習済みモデルの中から、判別結果を導出する際に用いられる学習済みモデルを選択してもよい。そこで、このような実施形態を、第1の実施形態及び第2の実施形態の変形例5として説明する。なお、変形例5の説明では、上述した変形例1及び変形例4と異なる点を主に説明し、変形例1及び変形例4と同様の構成及び処理については説明を省略する場合がある。
(Modification 5 of the first embodiment and the second embodiment)
In the above-mentioned modification 4, the discrimination function 184 selects a learned model and learning conditions to be used when deriving a discrimination result from among a plurality of types of learned models, according to the moving speed of the ultrasound probe 101. The selection case has been explained. However, the discrimination function 184 is used to derive discrimination results from among multiple types of trained models, depending on whether the discrimination results are derived in real time or as post-processing. You may also select a trained model. Therefore, such an embodiment will be described as a fifth modification of the first embodiment and the second embodiment. Note that in the description of Modification Example 5, differences from Modification Example 1 and Modification Example 4 described above will be mainly explained, and descriptions of the same configurations and processes as Modification Example 1 and Modification Example 4 may be omitted.

変形例5では、判別機能184は、リアルタイム処理指示が入力された場合には、運用時の1段階目の第1の判別処理を行うときに、第1の判別処理を実行する際に用いる第1の学習済みモデルとして、第1の学習済みモデル11a_2を選択する。そして、判別機能184は、選択した第1の学習済みモデル11a_2と、対応する第1の学習条件11b_2を用いて、第1の判別処理を実行する。 In modification 5, when a real-time processing instruction is input, the discrimination function 184 performs the first discrimination process used when performing the first discrimination process in the first stage during operation. The first trained model 11a_2 is selected as the first trained model. Then, the determination function 184 executes the first determination process using the selected first learned model 11a_2 and the corresponding first learning condition 11b_2.

また、判別機能184は、リアルタイム処理指示が入力された場合には、運用時の2段階目の第2の判別処理を行うときに、第2の判別処理を実行する際に用いる第2の学習済みモデルとして、第2の学習済みモデル12a_2を選択する。そして、判別機能184は、選択した第2の学習済みモデル12a_2と、対応する第2の学習条件12b_2を用いて、第2の判別処理を実行する。 In addition, when a real-time processing instruction is input, the discrimination function 184 performs a second learning process to be used when performing the second discrimination process at the second stage during operation. The second trained model 12a_2 is selected as the trained model. The determination function 184 then executes the second determination process using the selected second learned model 12a_2 and the corresponding second learning condition 12b_2.

また、判別機能184は、リアルタイム処理指示が入力された場合には、運用時の3段階目の第3の判別処理を行うときに、第3の判別処理を実行する際に用いる第3の学習済みモデルとして、第3の学習済みモデル13a_2を選択する。そして、判別機能184は、選択した第3の学習済みモデル13a_2と、対応する第3の学習条件13b_2を用いて、第3の判別処理を実行する。 In addition, when a real-time processing instruction is input, the discrimination function 184 performs a third learning process to be used when performing the third discrimination process at the third stage during operation. The third trained model 13a_2 is selected as the trained model. Then, the determination function 184 executes a third determination process using the selected third learned model 13a_2 and the corresponding third learning condition 13b_2.

また、判別機能184は、後処理指示が入力された場合には、運用時の1段階目の第1の判別処理を行うときに、第1の判別処理を実行する際に用いる第1の学習済みモデルとして、第1の学習済みモデル11a_1を選択する。そして、判別機能184は、選択した第1の学習済みモデル11a_1と、対応する第1の学習条件11b_1を用いて、第1の判別処理を実行する。 In addition, when a post-processing instruction is input, the discrimination function 184 performs a first learning process to be used when performing the first discrimination process in the first stage during operation. The first trained model 11a_1 is selected as the trained model. Then, the determination function 184 executes the first determination process using the selected first learned model 11a_1 and the corresponding first learning condition 11b_1.

また、判別機能184は、後処理指示が入力された場合には、運用時の2段階目の第2の判別処理を行うときに、第2の判別処理を実行する際に用いる第2の学習済みモデルとして、第2の学習済みモデル12a_1を選択する。そして、判別機能184は、選択した第2の学習済みモデル12a_1と、対応する第2の学習条件12b_1を用いて、第2の判別処理を実行する。 In addition, when a post-processing instruction is input, the discrimination function 184 performs a second learning process to be used when performing the second discrimination process at the second stage during operation. The second trained model 12a_1 is selected as the trained model. Then, the determination function 184 executes a second determination process using the selected second learned model 12a_1 and the corresponding second learning condition 12b_1.

また、判別機能184は、後処理指示が入力された場合には、運用時の3段階目の第3の判別処理を行うときに、第3の判別処理を実行する際に用いる第3の学習済みモデルとして、第3の学習済みモデル13a_1を選択する。そして、判別機能184は、選択した第3の学習済みモデル13a_1と、対応する第3の学習条件13b_1を用いて、第3の判別処理を実行する。 In addition, when a post-processing instruction is input, the determination function 184 performs a third learning process to be used when performing the third determination process at the third stage during operation. The third trained model 13a_1 is selected as the trained model. Then, the determination function 184 executes a third determination process using the selected third learned model 13a_1 and the corresponding third learning condition 13b_1.

したがって、第1の実施形態及び第2の実施形態の変形例5に係る超音波診断装置1によれば、リアルタイムで判別結果を導出するのか、又は、後処理として判別結果を導出するのかに応じて、適切な処理を行うことができる。また、変形例5に係る超音波診断装置1によれば、第1の実施形態及び第2の実施形態と同様に、特徴部位に関する判別結果を精度よく得ることができる。 Therefore, according to the ultrasonic diagnostic apparatus 1 according to the fifth modification of the first embodiment and the second embodiment, it depends on whether the discrimination result is derived in real time or as post-processing. appropriate processing can be carried out. Further, according to the ultrasonic diagnostic apparatus 1 according to the fifth modification, similarly to the first embodiment and the second embodiment, it is possible to obtain the discrimination result regarding the characteristic region with high accuracy.

(第1の実施形態及び第2の実施形態の変形例6)
次に、第1の学習済みモデル11aを用いた第1の判別処理及び第2の学習済みモデル12aを用いた第2の判別処理の判別精度を高める場合の変形例を、第1の実施形態及び第2の実施形態の変形例6として説明する。なお、変形例6の説明では、第1の実施形態及び第2の実施形態と異なる点を主に説明し、第1の実施形態及び第2の実施形態と同様の構成及び処理については説明を省略する場合がある。
(Variation 6 of the first embodiment and the second embodiment)
Next, a modification example for increasing the discrimination accuracy of the first discrimination process using the first trained model 11a and the second discrimination process using the second learned model 12a will be described in accordance with the first embodiment. This will be described as a sixth modification of the second embodiment. In addition, in the explanation of the modification 6, the points that are different from the first embodiment and the second embodiment will be mainly explained, and the same configuration and processing as the first embodiment and the second embodiment will not be explained. May be omitted.

例えば、変形例6に係る第2の学習済みモデル12a及び第2の学習条件12bに基づく第2の判別処理は、第1の実施形態及び第2の実施形態に係る第2の判別処理とは異なり、超音波画像に含まれる特徴部位が悪性であるか、良性であるか、又は、悪性でも良性でもないかを判別する。 For example, the second discrimination process based on the second learned model 12a and the second learning condition 12b according to Modification 6 is different from the second discrimination process according to the first embodiment and the second embodiment. Differently, it is determined whether a characteristic region included in an ultrasound image is malignant, benign, or neither malignant nor benign.

変形例6では、学習時の2段階目では、学習済みモデル生成機能201a又は学習済みモデル生成機能187は、超音波画像データ20と、ラベルとの関係を学習することによって、第2の学習済みモデル12aを生成し、第2の学習条件12bを記録する。変形例6では、第2の学習済みモデル12aを生成する際に用いられるラベルは、超音波画像データにより示される超音波画像に含まれる特徴部位が悪性であるのか、良性であるのか、又は、悪性でも良性でもないのかを示す。 In modification 6, in the second stage of learning, the learned model generation function 201a or the learned model generation function 187 learns the relationship between the ultrasound image data 20 and the label, thereby generating the second learned model. A model 12a is generated and a second learning condition 12b is recorded. In modification 6, the label used when generating the second trained model 12a is based on whether the characteristic region included in the ultrasound image shown by the ultrasound image data is malignant or benign, or Indicates whether it is malignant or benign.

ここで、第2の判別処理に入力される超音波画像データにより示される超音波画像には、特徴部位が含まれることが前提となっている。しかしながら、第1の判別処理において過検出されてしまい、過検出された超音波画像データが第2の判別処理に入力される場合もあり得る。 Here, it is assumed that the ultrasound image represented by the ultrasound image data input to the second discrimination process includes a characteristic region. However, there may be cases where over-detection occurs in the first discrimination process, and the over-detected ultrasound image data is input to the second discrimination process.

そこで、変形例6では、第2の判別処理は、超音波画像に含まれる特徴部位が悪性であるか、良性であるか、又は、悪性でも良性でもないかを判別する。 Therefore, in the sixth modification, the second discrimination process discriminates whether the characteristic region included in the ultrasound image is malignant, benign, or neither malignant nor benign.

第2の判別処理により超音波画像に含まれる特徴部位が悪性でも良性でもないと判別された場合には、超音波画像に特徴部位が含まれていないことが考えられる。すなわち、悪性でも良性でもないと判別された場合には、過検出された超音波画像データが第2の判別処理に入力されたと考えられる。すなわち、悪性でも良性でもないと判別された超音波画像データは、過検出された超音波画像データであると考えられる。 If the second discrimination process determines that the characteristic site included in the ultrasound image is neither malignant nor benign, it is possible that the characteristic site is not included in the ultrasound image. That is, if it is determined that the object is neither malignant nor benign, it is considered that over-detected ultrasound image data has been input to the second determination process. That is, ultrasound image data determined to be neither malignant nor benign is considered to be overdetected ultrasound image data.

そこで、学習済みモデル生成機能201a又は学習済みモデル生成機能187は、悪性でも良性でもないと判別された超音波画像データを用いて、第1の学習済みモデル11a及び第1の学習条件11bを更新する。以下の説明では、学習済みモデル生成機能187が、第1の学習済みモデル11a及び第1の学習条件11bを更新する場合について説明する。しかしながら、学習済みモデル生成機能201aが、以下で説明する学習済みモデル生成機能187が実行する処理と同様の処理を実行して、第1の学習済みモデル11a及び第1の学習条件11bを更新してもよい。 Therefore, the learned model generation function 201a or the learned model generation function 187 updates the first learned model 11a and the first learning condition 11b using the ultrasound image data determined to be neither malignant nor benign. do. In the following description, a case will be described in which the trained model generation function 187 updates the first trained model 11a and the first learning condition 11b. However, the trained model generation function 201a updates the first trained model 11a and the first learning condition 11b by executing the same process as the trained model generation function 187 described below. It's okay.

学習済みモデル生成機能187は、悪性でも良性でもないと判別された超音波画像データと、超音波画像に特徴部位が含まれないことを示す第1のラベル15とを対応付けて学習することにより、第1の学習済みモデル11a及び第1の学習条件11bを更新する。これにより、第1の学習済みモデル11a及び第1の学習条件11bに基づく第1の判別処理の判別精度を高くすることができる。 The trained model generation function 187 learns by associating ultrasound image data determined to be neither malignant nor benign with the first label 15 indicating that the ultrasound image does not include a characteristic region. , updates the first learned model 11a and the first learning condition 11b. Thereby, the discrimination accuracy of the first discrimination process based on the first learned model 11a and the first learning condition 11b can be increased.

また、例えば、変形例6に係る第3の学習済みモデル13a及び第3の学習条件13bに基づく第3の判別処理は、第1の実施形態及び第2の実施形態に係る第3の判別処理とは異なり、超音波画像に含まれる悪性の特徴部位の悪性度が悪性度Aであるか、悪性度Bであるか、又は、悪性度Aでも悪性度Bでもないかを判別する。 Further, for example, the third discrimination process based on the third learned model 13a and the third learning condition 13b according to the sixth modification is the third discrimination process according to the first embodiment and the second embodiment. In contrast, it is determined whether the malignancy of the malignant characteristic site included in the ultrasound image is malignancy level A, malignancy level B, or neither malignancy level A nor malignancy level B.

変形例6では、学習時の3段階目では、学習済みモデル生成機能201a又は学習済みモデル生成機能187は、超音波画像データ25と、ラベルとの関係を学習することによって、第3の学習済みモデル13aを生成し、第3の学習条件13bを記録する。変形例6では、第3の学習済みモデル13aを生成する際に用いられるラベルは、超音波画像データにより示される超音波画像に含まれる悪性の特徴部位の悪性度が、悪性度Aであるのか、悪性度Bであるのか、又は、悪性度Aでも悪性度Bでもないのかを示す。 In modification example 6, in the third stage of learning, the learned model generation function 201a or the learned model generation function 187 learns the relationship between the ultrasound image data 25 and the label, thereby generating the third learned model. A model 13a is generated and a third learning condition 13b is recorded. In modification 6, the label used when generating the third learned model 13a is whether the malignancy level of the malignant feature site included in the ultrasound image indicated by the ultrasound image data is malignancy level A. , indicates whether the grade is B, or whether it is neither A nor B.

ここで、第3の判別処理に入力される超音波画像データにより示される超音波画像に含まれる特徴部位は、悪性であることが前提となっている。しかしながら、第2の判別処理において、誤って、良性の特徴部位を悪性であると判別してしまい、誤って悪性であると判別された超音波画像データが第3の判別処理に入力される場合もあり得る。 Here, it is assumed that the characteristic site included in the ultrasound image indicated by the ultrasound image data input to the third discrimination process is malignant. However, in the second discrimination process, a benign characteristic region is mistakenly judged as malignant, and the ultrasound image data incorrectly judged as malignant is input to the third discrimination process. It is also possible.

そこで、変形例6では、第3の判別処理は、超音波画像に含まれる悪性の特徴部位の悪性度が悪性度Aであるか、悪性度Bであるか、又は、悪性度Aでも悪性度Bでもないかを判別する。 Therefore, in Modified Example 6, the third discrimination process determines whether the malignancy of the malignant characteristic part included in the ultrasound image is malignant grade A, malignant grade B, or even if malignant grade A is malignant. Determine whether it is B or not.

第3の判別処理により超音波画像に含まれる特徴部位の悪性度が、悪性度Aでも悪性度Bでもないと判別された場合には、超音波画像に含まれる特徴部位が良性であると考えられる。すなわち、悪性度Aでも悪性度Bでもないと判別された場合には、良性の特徴部位が誤って悪性であると判別された超音波画像データが第3の判別処理に入力されたと考えられる。すなわち、悪性度Aでも悪性度Bでもないと判別された超音波画像データは、良性の特徴部位が誤って悪性であると判別された超音波画像データであると考えられる。 If the third discrimination process determines that the malignancy of the characteristic part included in the ultrasound image is neither grade A nor grade B, the characteristic part included in the ultrasound image is considered to be benign. It will be done. That is, if it is determined that the malignancy level is neither A nor B, it is considered that the ultrasound image data in which a benign characteristic region was erroneously determined to be malignant was input to the third determination process. That is, the ultrasound image data determined to be neither malignant grade A nor malignant grade B is considered to be ultrasound image data in which a benign characteristic region was erroneously determined to be malignant.

そこで、学習済みモデル生成機能201a又は学習済みモデル生成機能187は、悪性度Aでも悪性度Bでもないと判別された超音波画像データを用いて、第2の学習済みモデル12a及び第2の学習条件12bを更新する。以下の説明では、学習済みモデル生成機能187が、第2の学習済みモデル12a及び第2の学習条件12bを更新する場合について説明する。しかしながら、学習済みモデル生成機能201aが、以下で説明する学習済みモデル生成機能187が実行する処理と同様の処理を実行して、第2の学習済みモデル12a及び第2の学習条件12bを更新してもよい。 Therefore, the learned model generation function 201a or the learned model generation function 187 uses the ultrasound image data determined to be neither malignant grade A nor malignant grade B to generate the second learned model 12a and the second learned model 12a. Update condition 12b. In the following description, a case will be described in which the trained model generation function 187 updates the second trained model 12a and the second learning condition 12b. However, the trained model generation function 201a updates the second trained model 12a and the second learning condition 12b by executing the same process as the trained model generation function 187 described below. It's okay.

学習済みモデル生成機能187は、悪性度Aでも悪性度Bでもないと判別された超音波画像データと、超音波画像に含まれる特徴部位が良性であることを示すラベルとを対応付けて学習することにより、第2の学習済みモデル12a及び第2の学習条件12bを更新する。これにより、第2の学習済みモデル12a及び第2の学習条件12bに基づく第2の判別処理の判別精度を高くすることができる。 The trained model generation function 187 learns by associating ultrasound image data that is determined to be neither malignant grade A nor malignant grade B with a label indicating that a characteristic part included in the ultrasound image is benign. As a result, the second learned model 12a and the second learning condition 12b are updated. Thereby, the discrimination accuracy of the second discrimination process based on the second learned model 12a and the second learning condition 12b can be increased.

変形例6について説明した。上述したように、変形例6に係る学習済みモデル生成機能187は、一の段階の次の段階に対応する判別処理から出力された所定の判別結果に対応する超音波画像データと、この所定の判別結果とを対応付けて学習することにより、一の段階に対応する学習済みモデルを新たに生成し、学習条件を新たに記録する。これにより、一の段階に対応する判別処理の判別精度を高くすることができる。 Modification 6 has been explained. As described above, the trained model generation function 187 according to the sixth modification uses ultrasound image data corresponding to a predetermined discrimination result outputted from the discrimination process corresponding to the next stage of one stage, and this predetermined By learning in association with the discrimination results, a new trained model corresponding to the first stage is generated, and learning conditions are newly recorded. Thereby, the discrimination accuracy of the discrimination process corresponding to the first stage can be increased.

(第1の実施形態及び第2の実施形態の変形例7)
次に、第1の学習済みモデル11aを用いた第1の判別処理及び第2の学習済みモデル12aを用いた第2の判別処理の判別精度を高める場合の他の変形例を、第1の実施形態及び第2の実施形態の変形例7として説明する。なお、変形例7の説明では、第1の実施形態及び第2の実施形態と異なる点を主に説明し、第1の実施形態及び第2の実施形態と同様の構成及び処理については説明を省略する場合がある。
(Modification 7 of the first embodiment and the second embodiment)
Next, another modification example for improving the discrimination accuracy of the first discrimination process using the first trained model 11a and the second discrimination process using the second learned model 12a will be described. This will be described as a seventh modification of the embodiment and the second embodiment. In addition, in the explanation of Modification 7, the points that are different from the first embodiment and the second embodiment will be mainly explained, and the same configuration and processing as the first embodiment and the second embodiment will not be explained. May be omitted.

上述した変形例6では、第1の実施形態及び第2の実施形態とは異なる学習方法により、第2の学習済みモデル12a及び第3の学習済みモデル13aが生成される場合について説明した。一方、変形例7では、第1の実施形態及び第2の実施形態と同様の学習方法により生成された第2の学習済みモデル12a及び第3の学習済みモデル13aが用いられる。 In the sixth modification described above, a case has been described in which the second trained model 12a and the third trained model 13a are generated by a learning method different from the first embodiment and the second embodiment. On the other hand, in Modification 7, a second trained model 12a and a third trained model 13a generated by the same learning method as in the first embodiment and the second embodiment are used.

ただし、変形例7では、第4の学習済みモデル、第4の学習条件、第5の学習済みモデル及び第5の学習条件が用いられる。変形例7では、運用時の2段階目において、第4の学習済みモデル及び第4の学習条件が用いられる第4の判別処理が、第2の判別処理よりも前に実行される。また、運用時の3段階目において、第5の学習済みモデル及び第5の学習条件が用いられる第5の判別処理が、第3の判別処理よりも前に実行される。 However, in Modification 7, a fourth trained model, a fourth learning condition, a fifth trained model, and a fifth learning condition are used. In Modification 7, in the second stage of operation, the fourth discrimination process using the fourth learned model and the fourth learning condition is executed before the second discrimination process. Furthermore, in the third stage of operation, a fifth discrimination process using a fifth trained model and a fifth learning condition is executed before the third discrimination process.

運用時の2段階目において、判別機能184は、第4の学習済みモデル及び第4の学習条件を用いて、CAD処理として、第4の判別処理を実行する。第4の判別処理は、超音波画像データ22に示される超音波画像に特徴部位が含まれるか又は含まれないかを判別し、判別結果(第4の判別結果)を導出する処理である。このように、変形例7では、判別機能184は、運用時の1段階目で実行される第1の判別処理と同様の第4の判別処理を、運用時の2段階目において実行する。また、第4の学習済みモデルは、第1の学習済みモデル11aと同様の方法で生成される。また、第4の学習条件は、第1の学習条件11bと同様の方法で記録される。 In the second stage of operation, the discrimination function 184 executes a fourth discrimination process as a CAD process using the fourth learned model and the fourth learning condition. The fourth determination process is a process of determining whether a characteristic region is included or not included in the ultrasound image shown in the ultrasound image data 22, and deriving a determination result (fourth determination result). In this way, in the seventh modification, the determination function 184 executes the fourth determination process, which is similar to the first determination process executed in the first stage of operation, in the second stage of operation. Further, the fourth trained model is generated in the same manner as the first trained model 11a. Further, the fourth learning condition is recorded in the same manner as the first learning condition 11b.

ただし、第1の学習済みモデル11aを生成する場合よりも、第4の学習済みモデルを生成する場合の方が、第1の判別処理において過検出された超音波画像データが多く用いられる。 However, when generating the fourth trained model, more ultrasound image data overdetected in the first discrimination process is used than when generating the first trained model 11a.

このため、第4の学習済みモデル及び第4の学習条件を用いた第4の判別処理では、第1の判別処理において過検出された超音波画像データを過検出することが抑制される。 Therefore, in the fourth discrimination process using the fourth trained model and the fourth learning condition, over-detection of ultrasound image data that was over-detected in the first discrimination process is suppressed.

ここで、第4の判別処理を実行した判別機能184により、超音波画像に特徴部位が含まれると判別された場合について説明する。この場合、運用時の2段階目において、判別機能184は、第2の学習済みモデル12a及び第2の学習条件12bを用いて、超音波画像に特徴部位が含まれると判別された超音波画像データに対して、第2の判別処理を実行する。 Here, a case will be described in which the determination function 184 that has executed the fourth determination process determines that the ultrasound image includes a characteristic region. In this case, in the second stage of operation, the discrimination function 184 uses the second learned model 12a and the second learning condition 12b to generate an ultrasound image that is determined to contain a characteristic region. A second discrimination process is performed on the data.

また、第4の判別処理を実行した判別機能184により、超音波画像に特徴部位が含まれないと判別された場合について説明する。この場合、学習済みモデル生成機能201a又は学習済みモデル生成機能187は、超音波画像に特徴部位が含まれないと判別された超音波画像データを用いて、第1の学習済みモデル11a及び第1の学習条件11bを更新する。以下の説明では、学習済みモデル生成機能187が、第1の学習済みモデル11a及び第1の学習条件11bを更新する場合について説明する。しかしながら、学習済みモデル生成機能201aが、以下で説明する学習済みモデル生成機能187が実行する処理と同様の処理を実行して、第1の学習済みモデル11a及び第1の学習条件11bを更新してもよい。 Further, a case will be described in which the determination function 184 that has executed the fourth determination process determines that the ultrasound image does not include a characteristic region. In this case, the learned model generation function 201a or the learned model generation function 187 generates the first learned model 11a and the first The learning condition 11b of is updated. In the following description, a case will be described in which the trained model generation function 187 updates the first trained model 11a and the first learning condition 11b. However, the trained model generation function 201a updates the first trained model 11a and the first learning condition 11b by executing the same process as the trained model generation function 187 described below. It's okay.

学習済みモデル生成機能187は、超音波画像に特徴部位が含まれないと判別された超音波画像データと、超音波画像に特徴部位が含まれないことを示す第1のラベル15とを対応付けて学習することにより、第1の学習済みモデル11a及び第1の学習条件11bを更新する。これにより、第1の学習済みモデル11a及び第1の学習条件11bに基づく第1の判別処理の判別精度を高くすることができる。 The trained model generation function 187 associates the ultrasound image data determined that the ultrasound image does not contain a characteristic region with the first label 15 indicating that the ultrasound image does not contain the characteristic region. By learning, the first learned model 11a and the first learning condition 11b are updated. Thereby, the discrimination accuracy of the first discrimination process based on the first learned model 11a and the first learning condition 11b can be increased.

そして、運用時の3段階目において、判別機能184は、第5の学習済みモデル及び第5の学習条件を用いて、第5の判別処理を実行する。第5の判別処理は、運用時の2段階目において第2の判別処理により良性であると判別された特徴部位が、良性であるか又は悪性であるかを再び判別し、判別結果(第5の判別結果)を導出する処理である。このように、変形例7では、判別機能184は、運用時の2段階目で実行される第2の判別処理と同様の第5の判別処理を、運用時の3段階目において実行する。また、第5の学習済みモデルは、第2の学習済みモデル12aと同様の方法で生成される。また、第5の学習条件は、第2の学習条件12bと同様の方法で記録される。 Then, in the third stage of operation, the discrimination function 184 executes the fifth discrimination process using the fifth learned model and the fifth learning condition. In the fifth discrimination process, it is determined again whether the characteristic region that was determined to be benign by the second discrimination process in the second stage of operation is benign or malignant, and the discrimination result (the fifth This is the process of deriving the determination result). In this way, in the seventh modification, the determination function 184 executes the fifth determination process, which is similar to the second determination process executed in the second stage of operation, in the third stage of operation. Further, the fifth trained model is generated in the same manner as the second trained model 12a. Further, the fifth learning condition is recorded in the same manner as the second learning condition 12b.

ただし、第2の学習済みモデル12aを生成する場合よりも、第5の学習済みモデルを生成する場合の方が、第2の判別処理において良性の特徴部位が誤って悪性であると判別された超音波画像データが多く用いられる。 However, in the case of generating the fifth trained model, a benign feature part was incorrectly determined to be malignant in the second discrimination process, rather than in the case of generating the second trained model 12a. Ultrasound image data is often used.

このため、第5の学習済みモデル及び第5の学習条件を用いた第5の判別処理では、第2の判別処理において良性の特徴部位が誤って悪性であると判別された超音波画像データに含まれる特徴部位を、良性であると正しく判別することができる。 Therefore, in the fifth discrimination process using the fifth trained model and the fifth learning condition, a benign feature region is incorrectly determined to be malignant in the ultrasound image data in the second discrimination process. The included characteristic parts can be correctly determined to be benign.

ここで、第5の判別処理を実行した判別機能184により、超音波画像に含まれる特徴部位が悪性であると判別された場合について説明する。この場合、運用時の3段階目において、判別機能184は、第3の学習済みモデル13a及び第3の学習条件13bを用いて、特徴部位が悪性であると判別された超音波画像データに対して、第3の判別処理を実行する。 Here, a case will be described in which the characteristic region included in the ultrasound image is determined to be malignant by the determination function 184 that has executed the fifth determination process. In this case, in the third stage of operation, the discrimination function 184 uses the third trained model 13a and the third learning condition 13b to apply the ultrasound image data whose characteristic region is determined to be malignant. Then, the third determination process is executed.

一方、第5の判別処理を実行した判別機能184により、超音波画像に含まれる特徴部位が良性であると判別された場合について説明する。この場合、学習済みモデル生成機能201a又は学習済みモデル生成機能187は、特徴部位が良性であると判別された超音波画像データを用いて、第2の学習済みモデル12a及び第2の学習条件12bを更新する。以下の説明では、学習済みモデル生成機能187が、第2の学習済みモデル12a及び第2の学習条件12bを更新する場合について説明する。しかしながら、学習済みモデル生成機能201aが、以下で説明する学習済みモデル生成機能187が実行する処理と同様の処理を実行して、第2の学習済みモデル12a及び第2の学習条件12bを更新してもよい。 On the other hand, a case will be described in which the characteristic region included in the ultrasound image is determined to be benign by the determination function 184 that has executed the fifth determination process. In this case, the learned model generation function 201a or the learned model generation function 187 generates the second learned model 12a and the second learning condition 12b using the ultrasound image data in which the feature region is determined to be benign. Update. In the following description, a case will be described in which the trained model generation function 187 updates the second trained model 12a and the second learning condition 12b. However, the trained model generation function 201a updates the second trained model 12a and the second learning condition 12b by executing the same process as the trained model generation function 187 described below. It's okay.

学習済みモデル生成機能187は、特徴部位が良性であると判別された超音波画像データと、特徴部位が良性であることを示す第2のラベル21とを対応付けて学習することにより、第2の学習済みモデル12a及び第2の学習条件12bを更新する。これにより、第2の学習済みモデル12a及び第2の学習条件12bに基づく第2の判別処理の判別精度を高くすることができる。 The trained model generation function 187 learns by associating and learning the ultrasound image data in which the characteristic region is determined to be benign and the second label 21 indicating that the characteristic region is benign. The learned model 12a and the second learning condition 12b are updated. Thereby, the discrimination accuracy of the second discrimination process based on the second learned model 12a and the second learning condition 12b can be increased.

変形例7について説明した。上述したように、変形例7に係る学習済みモデル生成機能187は、一の段階の次の段階に対応する判別処理から出力された所定の判別結果に対応する超音波画像データと、この所定の判別結果とを対応付けて学習することにより、一の段階に対応する学習済みモデルを新たに生成し、学習条件を新たに記録する。これにより、一の段階に対応する判別処理の判別精度を高くすることができる。 Modification 7 has been explained. As described above, the trained model generation function 187 according to Modification Example 7 uses ultrasonic image data corresponding to a predetermined discrimination result outputted from the discrimination process corresponding to the next stage after the first stage, and this predetermined By learning in association with the discrimination results, a new trained model corresponding to the first stage is generated, and learning conditions are newly recorded. Thereby, the discrimination accuracy of the discrimination process corresponding to the first stage can be increased.

(第3の実施形態)
なお、上述した実施形態及び変形例では、超音波診断装置1が、学習済みモデル及び学習条件を用いて、判別結果を導出する場合について説明した。しかしながら、医用画像処理装置が、リアルタイムではなく、後処理として同様の処理を行ってよい。そこで、このような実施形態を第3の実施形態として説明する。
(Third embodiment)
In addition, in the embodiment and modification example mentioned above, the case where the ultrasonic diagnostic apparatus 1 derives a discrimination result using a learned model and learning conditions was explained. However, the medical image processing apparatus may perform similar processing as post-processing rather than in real time. Therefore, such an embodiment will be described as a third embodiment.

図24は、第3の実施形態に係る医用画像処理装置300の構成例を示す図である。図24に例示するように、医用画像処理装置300は、入力装置301と、ディスプレイ302と、記憶回路310と、処理回路320とを備える。入力装置301、ディスプレイ302、記憶回路310、処理回路320は、相互に通信可能に接続される。医用画像処理装置300は、解析装置の一例である。 FIG. 24 is a diagram showing a configuration example of a medical image processing apparatus 300 according to the third embodiment. As illustrated in FIG. 24, the medical image processing apparatus 300 includes an input device 301, a display 302, a storage circuit 310, and a processing circuit 320. Input device 301, display 302, storage circuit 310, and processing circuit 320 are connected to be able to communicate with each other. Medical image processing device 300 is an example of an analysis device.

入力装置301は、マウス、キーボード、ボタン、パネルスイッチ、タッチコマンドスクリーン、フットスイッチ、トラックボール、ジョイスティック等により実現される。入力装置301は、医用画像処理装置300の操作者からの各種設定要求を受け付ける。入力装置301は、受け付けた各種設定要求を処理回路320へ出力する。例えば、入力装置301は、医用画像処理装置300の操作者からCAD処理を実行するための指示(実行指示)を受け付け、受け付けた実行指示を処理回路320に出力する。また、操作者は、入力装置301を介して、CAD処理において、特徴部位の検索範囲であるROIを超音波画像に設定することもできる。 The input device 301 is implemented by a mouse, keyboard, button, panel switch, touch command screen, foot switch, trackball, joystick, or the like. The input device 301 receives various setting requests from the operator of the medical image processing apparatus 300. The input device 301 outputs the received various setting requests to the processing circuit 320. For example, the input device 301 receives an instruction (execution instruction) for executing CAD processing from an operator of the medical image processing apparatus 300 and outputs the received execution instruction to the processing circuit 320 . Further, the operator can also set an ROI, which is a search range for a characteristic region, in the ultrasound image in CAD processing via the input device 301.

ディスプレイ302は、例えば、医用画像を表示したり、操作者が入力装置301を用いて各種設定要求を入力するためのGUIを表示したりする。 The display 302 displays, for example, a medical image or a GUI for an operator to input various setting requests using the input device 301.

記憶回路310は、GUIを表示するための各種のプログラムや、当該プログラムによって用いられる情報を記憶する。また、記憶回路310は、超音波診断装置1によって生成された時系列に沿った複数の超音波画像データを記憶する。また、記憶回路310は、上述した第1の実施形態、第2の実施形態又は変形例1~7のうちのいずれかの各種の学習済みモデル及び各種の学習条件を記憶する。これら各種の学習済みモデル及び各種の学習条件は、処理回路320により実行される処理に用いられる。 The storage circuit 310 stores various programs for displaying a GUI and information used by the programs. Furthermore, the storage circuit 310 stores a plurality of pieces of ultrasound image data generated by the ultrasound diagnostic apparatus 1 in time series. Further, the storage circuit 310 stores various learned models and various learning conditions of any of the first embodiment, second embodiment, or modified examples 1 to 7 described above. These various learned models and various learning conditions are used for processing executed by the processing circuit 320.

処理回路320は、医用画像処理装置300の処理全体を制御する。処理回路320は、例えば、プロセッサにより実現される。例えば、図24に示すように、処理回路320は、制御機能321、速度検出機能322、取得機能323、学習済みモデル生成機能324、判別機能325、マーカ情報生成機能326及び表示制御機能327の各処理機能を有する。ここで、例えば、図24に示す処理回路320の構成要素である制御機能321、速度検出機能322、取得機能323、学習済みモデル生成機能324、判別機能325、マーカ情報生成機能326及び表示制御機能327の各処理機能は、コンピュータによって実行可能なプログラムの形態で記憶回路310に記録されている。処理回路320は、各プログラムを記憶回路310から読み出し、実行することで各プログラムに対応する機能を実現するプロセッサである。換言すると、各プログラムを読み出した状態の処理回路320は、図24の処理回路320内に示された各機能を有することとなる。 The processing circuit 320 controls the entire processing of the medical image processing apparatus 300. The processing circuit 320 is realized by, for example, a processor. For example, as shown in FIG. 24, the processing circuit 320 includes a control function 321, a speed detection function 322, an acquisition function 323, a trained model generation function 324, a discrimination function 325, a marker information generation function 326, and a display control function 327. It has a processing function. Here, for example, the components of the processing circuit 320 shown in FIG. 24 are a control function 321, a speed detection function 322, an acquisition function 323, a trained model generation function 324, a discrimination function 325, a marker information generation function 326, and a display control function. Each processing function of 327 is recorded in the storage circuit 310 in the form of a program executable by a computer. The processing circuit 320 is a processor that reads each program from the storage circuit 310 and executes it to realize a function corresponding to each program. In other words, the processing circuit 320 in a state where each program is read has each function shown in the processing circuit 320 of FIG. 24.

医用画像処理装置300は、例えば、超音波診断装置1により生成された時系列に沿った複数の超音波画像データを取得する。ただし、この超音波画像データには、速度検出器104により検出された超音波プローブ101の移動速度を示す検出信号が付加されている。そして、医用画像処理装置300は、超音波画像データに対して、上述した第1の実施形態、第2の実施形態又は変形例1~7のうちのいずれかと同様の処理を行って、ディスプレイ302に、超音波画像、及び、検出された特徴部位等の情報を表示させる。 The medical image processing device 300 acquires, for example, a plurality of time-series ultrasound image data generated by the ultrasound diagnostic device 1. However, a detection signal indicating the moving speed of the ultrasound probe 101 detected by the speed detector 104 is added to this ultrasound image data. Then, the medical image processing apparatus 300 performs the same processing on the ultrasound image data as in the first embodiment, the second embodiment, or any of the modified examples 1 to 7 described above, and displays the data on the display 302. The ultrasound image and information such as detected characteristic parts are displayed.

制御機能321は、医用画像処理装置300の処理全体を制御する。速度検出機能322は、上述した速度検出機能182と同様の機能を有する。例えば、速度検出機能322は、超音波画像データに付加された検出信号に基づいて、超音波プローブ101の移動速度を検出する。取得機能323は、上述した取得機能183と同様の機能を有する。学習済みモデル生成機能324は、上述した学習済みモデル生成機能187と同様の機能を有する。判別機能325は、上述した判別機能184と同様の機能を有する。マーカ情報生成機能326は、上述したマーカ情報生成機能185と同様の機能を実行する。表示制御機能327は、上述した表示制御機能186と同様の機能を実行する。 The control function 321 controls the entire processing of the medical image processing apparatus 300. The speed detection function 322 has the same function as the speed detection function 182 described above. For example, the speed detection function 322 detects the moving speed of the ultrasound probe 101 based on the detection signal added to the ultrasound image data. The acquisition function 323 has the same function as the acquisition function 183 described above. The learned model generation function 324 has the same function as the learned model generation function 187 described above. The discrimination function 325 has the same function as the discrimination function 184 described above. The marker information generation function 326 performs the same function as the marker information generation function 185 described above. The display control function 327 performs the same function as the display control function 186 described above.

以上、第3の実施形態に係る医用画像処理装置300について説明した。第3の実施形態に係る医用画像処理装置300によれば、第1の実施形態等と同様に、特徴部位に関する判別結果を精度よく得ることができる。 The medical image processing apparatus 300 according to the third embodiment has been described above. According to the medical image processing apparatus 300 according to the third embodiment, similarly to the first embodiment and the like, it is possible to accurately obtain a discrimination result regarding a characteristic region.

なお、上述した少なくとも1つの実施形態又は変形例において、超音波診断装置1は、処理回路180が備える各機能、各種の学習済みモデル及び各種の学習条件を1つのソフトウェアパッケージとして扱ってもよい。同様に、医用画像処理装置300は、処理回路320が備える各機能、各種の学習済みモデル及び各種の学習条件を1つのソフトウェアパッケージとして扱ってもよい。 In addition, in at least one embodiment or modification described above, the ultrasound diagnostic apparatus 1 may handle each function provided in the processing circuit 180, various learned models, and various learning conditions as one software package. Similarly, the medical image processing apparatus 300 may handle each function provided in the processing circuit 320, various learned models, and various learning conditions as one software package.

以上述べた少なくとも1つの実施形態又は変形例によれば、特徴部位に関する判別結果を精度よく得ることができる。 According to at least one embodiment or modification described above, it is possible to obtain a determination result regarding a characteristic part with high accuracy.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although several embodiments of the invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, substitutions, and changes can be made without departing from the gist of the invention. These embodiments and their modifications are included within the scope and gist of the invention as well as within the scope of the invention described in the claims and its equivalents.

1 超音波診断装置
184 判別機能
187 学習済みモデル生成機能
1 Ultrasonic diagnostic equipment 184 Discrimination function 187 Learned model generation function

Claims (17)

複数の段階のそれぞれに対応する複数の学習済みモデルのそれぞれであって、入力された医用画像データに描出される被検体の特徴部位に関する判別結果を出力する複数の判別処理のそれぞれを実行する際に用いられる複数の学習済みモデルのそれぞれを記憶する記憶部と、
前記複数の学習済みモデルのうち少なくとも1つの学習済みモデルを用いて、前記少なくとも1つの学習済みモデルに対応する判別処理を実行することにより、前記被検体の特徴部位に関する判別結果を導出する判別部と、
を備え、
前記判別部は、前記複数の段階のそれぞれにおいて、他の段階で実行される判別処理とは異なる判別処理を実行する、
超音波診断装置。
When each of the plurality of trained models corresponding to each of the plurality of stages executes each of the plurality of discrimination processes that outputs discrimination results regarding the characteristic parts of the subject depicted in the input medical image data. a storage unit that stores each of the plurality of trained models used for the
A discriminator that derives a discrimination result regarding a characteristic part of the subject by executing a discrimination process corresponding to the at least one learned model using at least one learned model among the plurality of learned models. and,
Equipped with
The discrimination unit executes a discrimination process in each of the plurality of stages that is different from discrimination processes executed in other stages.
Ultrasound diagnostic equipment.
前記判別部は、前記複数の段階のうち、一の段階に対応する判別処理から出力された所定の判別結果に対応する医用画像データを、前記一の段階の次の段階に対応する判別処理に入力し、前記一の段階の次の段階に対応する判別処理から出力された判別結果を前記一の段階の次の段階に対応する判別結果として導出する、
請求項1に記載の超音波診断装置。
The discrimination unit is configured to process medical image data corresponding to a predetermined discrimination result outputted from a discrimination process corresponding to one stage among the plurality of stages to a discrimination process corresponding to a next stage after the first stage. input, and derive a discrimination result output from a discrimination process corresponding to the next stage of the first stage as a discrimination result corresponding to the next stage of the first stage;
The ultrasonic diagnostic apparatus according to claim 1.
複数の前記医用画像データを収集する収集部と、
前記複数の医用画像データを収集する際に用いられる超音波プローブの移動速度を検出する検出部と、
を更に備え、
前記判別部は、前記超音波プローブの移動速度に応じて、前記複数の医用画像データの複数の種類のフレームレートの中から、判別結果を導出する際のフレームレートを選択する第1の選択処理、及び、前記移動速度に応じて、判別結果を導出するための複数の種類の導出処理の中から、判別結果を導出する際の導出処理を選択する第2の選択処理を実行する、
請求項1又は2に記載の超音波診断装置。
a collection unit that collects a plurality of the medical image data;
a detection unit that detects a moving speed of an ultrasound probe used when collecting the plurality of medical image data;
further comprising;
The discrimination unit performs a first selection process of selecting a frame rate for deriving a discrimination result from among a plurality of types of frame rates of the plurality of medical image data, according to a moving speed of the ultrasound probe. , and executing a second selection process for selecting a derivation process for deriving the discrimination result from among a plurality of types of derivation processes for deriving the discrimination result, according to the movement speed,
The ultrasonic diagnostic apparatus according to claim 1 or 2.
複数の前記医用画像データを収集する収集部と、
前記複数の医用画像データを収集する際に用いられる超音波プローブの移動速度を検出する検出部と、
を更に備え、
前記記憶部は、前記複数の段階のそれぞれに対応する複数の種類の学習済みモデルを記憶し、
前記判別部は、前記超音波プローブの移動速度に応じて、前記複数の医用画像データの複数の種類のフレームレートの中から、判別結果を導出する際のフレームレートを選択する第1の選択処理、及び、前記移動速度に応じて、前記複数の種類の学習済みモデルの中から、判別結果を導出する際に用いられる学習済みモデルを選択する第3の選択処理を実行する、
請求項1又は2に記載の超音波診断装置。
a collection unit that collects a plurality of the medical image data;
a detection unit that detects a moving speed of an ultrasound probe used when collecting the plurality of medical image data;
further comprising;
The storage unit stores a plurality of types of trained models corresponding to each of the plurality of stages,
The discrimination unit performs a first selection process of selecting a frame rate for deriving a discrimination result from among a plurality of types of frame rates of the plurality of medical image data, according to a moving speed of the ultrasound probe. , and executing a third selection process of selecting a trained model to be used in deriving a discrimination result from among the plurality of types of trained models according to the movement speed;
The ultrasonic diagnostic apparatus according to claim 1 or 2.
前記判別部は、前記第1の選択処理において、前記移動速度が第1の閾値よりも大きい場合には、判別結果を導出する際のフレームレートとして第1のフレームレートを選択し、前記移動速度が前記第1の閾値よりも小さい第2の閾値よりも小さい場合には、判別結果を導出する際のフレームレートとして前記第1のフレームレートよりも低い第2のフレームレートを選択する、
請求項3又は4に記載の超音波診断装置。
In the first selection process, if the moving speed is larger than a first threshold, the determining unit selects a first frame rate as a frame rate for deriving the determination result, and selects the first frame rate as the frame rate when deriving the determination result, and is smaller than a second threshold that is smaller than the first threshold, selecting a second frame rate lower than the first frame rate as the frame rate for deriving the discrimination result;
The ultrasonic diagnostic apparatus according to claim 3 or 4.
前記判別部は、前記第2の選択処理において、前記移動速度が第1の閾値よりも大きい場合には、判別結果を導出する際の導出処理として第1の導出処理を選択し、前記移動速度が前記第1の閾値よりも小さい第2の閾値よりも小さい場合には、前記第1の導出処理よりも多くの判別結果を導出する第2の導出処理、又は、判別結果を導出する際の前記導出処理として前記第1の導出処理よりも精度良く判別結果を導出することが可能で、かつ、処理負荷が高い第3の導出処理を選択する、
請求項3に記載の超音波診断装置。
In the second selection process, if the moving speed is larger than the first threshold, the discrimination unit selects the first derivation process as the derivation process when deriving the discrimination result, and selects the first derivation process as the derivation process when deriving the discrimination result. is smaller than the second threshold value, which is smaller than the first threshold value, a second derivation process that derives more discrimination results than the first derivation process, or a second derivation process when deriving the discrimination results. selecting as the derivation process a third derivation process that is capable of deriving a discrimination result with higher accuracy than the first derivation process and has a higher processing load;
The ultrasonic diagnostic apparatus according to claim 3.
前記判別部は、前記第3の選択処理において、前記移動速度が第1の閾値よりも大きい場合には、判別結果を導出する際に用いる学習済みモデルとして第1の学習済みモデルを選択し、前記移動速度が前記第1の閾値よりも小さい第2の閾値よりも小さい場合には、判別結果を導出する際に用いる学習済みモデルとして前記第1の学習済みモデルよりも精度良く判別結果を導出可能で、かつ、処理負荷が高い第2の学習済みモデルを選択する、
請求項4に記載の超音波診断装置。
In the third selection process, the discrimination unit selects a first trained model as a trained model to be used when deriving a discrimination result if the moving speed is greater than a first threshold; If the moving speed is smaller than a second threshold value, which is smaller than the first threshold value, the learned model used to derive the discrimination result is used to derive the discrimination result with higher accuracy than the first trained model. selecting a second trained model that is possible and has a high processing load;
The ultrasonic diagnostic apparatus according to claim 4.
前記判別部は、前記移動速度が前記第1の閾値よりも大きい場合において、前記第1の導出処理として、前記入力された医用画像データにより示される医用画像の一部分と、特徴部位を示す第1のパターンとが類似している度合いを示す指標が閾値以上であるときには、前記医用画像に特徴部位が含まれると判別し、前記指標が閾値未満であるときには、前記医用画像に特徴部位が含まれないと判別した結果である判別結果を導出する特徴部位検出処理を実行する、
請求項6に記載の超音波診断装置。
When the moving speed is greater than the first threshold, the determining unit performs the first derivation process by determining a part of the medical image indicated by the input medical image data and a first When the index indicating the degree of similarity between the two patterns is equal to or higher than a threshold value, it is determined that the medical image includes the characteristic region, and when the index is less than the threshold value, it is determined that the characteristic region is included in the medical image. Execute feature part detection processing to derive a discrimination result that is a result of determining that there is no
The ultrasonic diagnostic apparatus according to claim 6.
前記判別部は、前記移動速度が前記第2の閾値よりも小さい場合において、前記第3の導出処理として、前記特徴部位検出処理、及び、前記特徴部位検出処理により前記医用画像に含まれると判別された特徴部位と、前記特徴部位検出処理において前記医用画像に含まれないにも関わらず含まれると誤って判別されると推定される特徴部位を示す第2のパターンとが類似している度合いを示す指標が閾値以上であるときには、前記医用画像に含まれると判別された特徴部位が前記医用画像に含まれないと判別結果を訂正する訂正処理を実行する、
請求項8に記載の超音波診断装置。
When the moving speed is smaller than the second threshold, the determining unit determines, as the third derivation process, that the characteristic part detection process and the characteristic part detection process are included in the medical image. degree of similarity between the detected characteristic region and a second pattern indicating a characteristic region estimated to be erroneously determined to be included in the medical image even though it is not included in the medical image in the characteristic region detection process; When the index indicating is equal to or greater than a threshold, a correction process is executed to correct the determination result that the characteristic region determined to be included in the medical image is not included in the medical image.
The ultrasonic diagnostic apparatus according to claim 8.
前記判別部は、前記入力された医用画像データに対して、特徴部位を示す第1のパターンを用いる第1の特徴部位検出処理により検出された前記入力された医用画像データにより示される医用画像の一部分、及び、前記入力された医用画像データに対して、特徴部位を示す第1のパターンとは異なる第2のパターンを用いる第2の特徴部位検出処理により検出された前記医用画像の一部分のうち、前記第1の特徴部位検出処理及び前記第2の特徴部位検出処理において共通して検出された前記医用画像の一部分を除く前記医用画像の一部分が特徴部位であり、前記医用画像には特徴部位が含まれると判別する、
請求項1に記載の超音波診断装置。
The discriminating unit is configured to detect a medical image indicated by the input medical image data, which is detected by a first characteristic part detection process using a first pattern indicating a characteristic part, for the input medical image data. and a portion of the medical image detected by a second characteristic region detection process using a second pattern different from the first pattern indicating the characteristic region with respect to the input medical image data. , a portion of the medical image excluding a portion of the medical image commonly detected in the first characteristic region detection process and the second characteristic region detection process is a characteristic region; is determined to be included,
The ultrasonic diagnostic apparatus according to claim 1.
前記被検体に対して超音波走査を行うことにより複数の前記医用画像データを収集する収集部を更に備え、
前記判別部は、前記超音波走査に対してリアルタイムで判別結果を導出するのか、又は、前記超音波走査よりも後に実行される後処理として判別結果を導出するのかに応じて、判別結果を導出するための複数の種類の導出処理の中から、判別結果を導出する際の導出処理を選択する、
請求項1に記載の超音波診断装置。
further comprising a collection unit that collects a plurality of the medical image data by performing ultrasound scanning on the subject;
The discrimination unit derives a discrimination result depending on whether the discrimination result is derived in real time with respect to the ultrasonic scanning or whether the discrimination result is derived as a post-processing performed after the ultrasonic scanning. Select the derivation process for deriving the discrimination result from among multiple types of derivation processes for
The ultrasonic diagnostic apparatus according to claim 1.
前記被検体に対して超音波走査を行うことにより複数の前記医用画像データを収集する収集部を更に備え、
前記記憶部は、前記複数の段階のそれぞれに対応する複数の種類の学習済みモデルを記憶し、
前記判別部は、前記超音波走査に対してリアルタイムで判別結果を導出するのか、又は、前記超音波走査よりも後に実行される後処理として判別結果を導出するのかに応じて、前記複数の種類の学習済みモデルの中から、判別結果を導出する際に用いる学習済みモデルを選択する、
請求項1に記載の超音波診断装置。
further comprising a collection unit that collects a plurality of the medical image data by performing ultrasound scanning on the subject;
The storage unit stores a plurality of types of trained models corresponding to each of the plurality of stages,
The discrimination unit determines the plurality of types depending on whether the discrimination result is derived in real time with respect to the ultrasonic scan or whether the discrimination result is derived as post-processing performed after the ultrasonic scan. Select a trained model to use when deriving the discrimination result from among the trained models of
The ultrasonic diagnostic apparatus according to claim 1.
被検体の特徴部位が描出された医用画像データを収集する収集部と、
前記医用画像データと、前記医用画像データに描出される特徴部位に関する判別結果とを対応付けて学習することにより、入力された医用画像データに描出される被検体の特徴部位に関する判別結果を出力する判別処理を実行する際に用いられる学習済みモデルを、複数の段階のそれぞれにおいて生成する生成部と、
を備え、
前記複数の段階のそれぞれにおいて実行される判別処理は、他の段階で実行される判別処理とは異なる、
超音波診断装置。
a collection unit that collects medical image data depicting characteristic parts of the subject;
By associating and learning the medical image data and the discrimination results regarding the characteristic parts depicted in the medical image data, the discrimination results regarding the characteristic parts of the subject depicted in the input medical image data are output. a generation unit that generates a trained model used in executing the discrimination process in each of the plurality of stages;
Equipped with
The determination processing performed in each of the plurality of stages is different from the determination processing performed in other stages,
Ultrasound diagnostic equipment.
前記生成部は、前記複数の段階のうち、一の段階に対応する判別処理から出力された所定の判別結果に対応する医用画像データと、前記一の段階の次の段階に対応する判別結果とを対応付けて学習することにより、前記一の段階の次の段階に対応する学習済みモデルを生成する、
請求項13に記載の超音波診断装置。
The generation unit generates medical image data corresponding to a predetermined discrimination result output from a discrimination process corresponding to one stage among the plurality of stages, and a discrimination result corresponding to a stage next to the first stage. Generate a trained model corresponding to the next stage of the first stage by learning in association with
The ultrasonic diagnostic apparatus according to claim 13.
前記生成部は、前記一の段階の次の段階に対応する判別処理から出力された所定の判別結果に対応する医用画像データと、当該所定の判別結果とを対応付けて学習することにより、前記一の段階に対応する学習済みモデルを生成する、
請求項14に記載の超音波診断装置。
The generation unit learns by associating and learning medical image data corresponding to a predetermined discrimination result output from the discrimination process corresponding to the next stage of the first stage, and the predetermined discrimination result. Generate a trained model corresponding to the first stage,
The ultrasonic diagnostic apparatus according to claim 14.
複数の段階のそれぞれに対応する複数の学習済みモデルのそれぞれであって、入力された医用画像データに描出される被検体の特徴部位に関する判別結果を出力する複数の判別処理のそれぞれを実行する際に用いられる複数の学習済みモデルのそれぞれを記憶する記憶部と、
前記複数の学習済みモデルのうち少なくとも1つの学習済みモデルを用いて、前記少なくとも1つの学習済みモデルに対応する判別処理を実行することにより、前記被検体の特徴部位に関する判別結果を導出する判別部と、
を備え、
前記判別部は、前記複数の段階のそれぞれにおいて、他の段階で実行される判別処理とは異なる判別処理を実行する、
解析装置。
When each of the plurality of trained models corresponding to each of the plurality of stages executes each of the plurality of discrimination processes that outputs discrimination results regarding the characteristic parts of the subject depicted in the input medical image data. a storage unit that stores each of the plurality of trained models used for the
A discriminator that derives a discrimination result regarding a characteristic part of the subject by executing a discrimination process corresponding to the at least one learned model using at least one learned model among the plurality of learned models. and,
Equipped with
The discrimination unit executes a discrimination process in each of the plurality of stages that is different from discrimination processes executed in other stages.
Analysis device.
被検体の特徴部位が描出された医用画像データを取得する取得部と、
前記医用画像データと、前記医用画像データに描出される特徴部位に関する判別結果とを対応付けて学習することにより、入力された医用画像データに描出される被検体の特徴部位に関する判別結果を出力する判別処理を実行する際に用いられる学習済みモデルを、複数の段階のそれぞれにおいて生成する生成部と、
を備え、
前記複数の段階のそれぞれにおいて実行される判別処理は、他の段階で実行される判別処理とは異なる、
解析装置。
an acquisition unit that acquires medical image data depicting characteristic parts of the subject;
By associating and learning the medical image data and the discrimination results regarding the characteristic parts depicted in the medical image data, the discrimination results regarding the characteristic parts of the subject depicted in the input medical image data are output. a generation unit that generates a trained model used in executing the discrimination process in each of the plurality of stages;
Equipped with
The determination processing performed in each of the plurality of stages is different from the determination processing performed in other stages,
Analysis device.
JP2023148511A 2019-06-28 2023-09-13 Ultrasonic diagnostic device and analysis device Pending JP2023160986A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023148511A JP2023160986A (en) 2019-06-28 2023-09-13 Ultrasonic diagnostic device and analysis device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019121963A JP2021007512A (en) 2019-06-28 2019-06-28 Ultrasonic diagnostic device and analysis device
JP2023148511A JP2023160986A (en) 2019-06-28 2023-09-13 Ultrasonic diagnostic device and analysis device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019121963A Division JP2021007512A (en) 2019-06-28 2019-06-28 Ultrasonic diagnostic device and analysis device

Publications (2)

Publication Number Publication Date
JP2023160986A true JP2023160986A (en) 2023-11-02
JP2023160986A5 JP2023160986A5 (en) 2024-03-01

Family

ID=74198388

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019121963A Pending JP2021007512A (en) 2019-06-28 2019-06-28 Ultrasonic diagnostic device and analysis device
JP2023148511A Pending JP2023160986A (en) 2019-06-28 2023-09-13 Ultrasonic diagnostic device and analysis device

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019121963A Pending JP2021007512A (en) 2019-06-28 2019-06-28 Ultrasonic diagnostic device and analysis device

Country Status (1)

Country Link
JP (2) JP2021007512A (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022181748A1 (en) * 2021-02-26 2022-09-01 富士フイルム株式会社 Medical image processing device, endoscope system, medical image processing method, and medical image processing program
JP2022172565A (en) * 2021-05-06 2022-11-17 コニカミノルタ株式会社 ULTRASOUND IMAGE DIAGNOSTIC DEVICE, CLASSIFIER CHANGE METHOD AND CLASSIFIER CHANGE PROGRAM
JP7707652B2 (en) * 2021-05-24 2025-07-15 コニカミノルタ株式会社 IMAGE GENERATION DEVICE, IMAGE GENERATION METHOD, AND PROGRAM
JP7640366B2 (en) * 2021-05-26 2025-03-05 富士フイルム株式会社 Medical image processing equipment
WO2024004524A1 (en) * 2022-06-29 2024-01-04 富士フイルム株式会社 Diagnosis assistance device, ultrasound endoscope, diagnosis assistance method, and program

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011167330A (en) * 2010-02-18 2011-09-01 Ge Medical Systems Global Technology Co Llc Ultrasonic diagnostic apparatus
JP2012091042A (en) * 2003-05-08 2012-05-17 Hitachi Medical Corp Ultrasonic diagnostic apparatus
JP2014133133A (en) * 2013-01-10 2014-07-24 Samsung Electronics Co Ltd Lesion diagnosis apparatus and method
JP2015154918A (en) * 2014-02-19 2015-08-27 三星電子株式会社Samsung Electronics Co.,Ltd. Apparatus and method for lesion detection
JP2015202373A (en) * 2014-04-16 2015-11-16 株式会社東芝 Ultrasonic diagnostic device and control program
US20160048737A1 (en) * 2014-08-14 2016-02-18 Samsung Electronics Co., Ltd. Apparatus and method for adaptive computer-aided diagnosis
WO2016088758A1 (en) * 2014-12-01 2016-06-09 国立研究開発法人産業技術総合研究所 Ultrasound examination system and ultrasound examination method
JP2019022693A (en) * 2018-09-21 2019-02-14 株式会社日立製作所 Ultrasonic diagnostic device, and operation method for ultrasonic diagnostic device
JP2019076699A (en) * 2017-10-26 2019-05-23 株式会社日立製作所 Nodule detection with false positive reduction

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7034625B2 (en) * 2016-11-25 2022-03-14 キヤノン株式会社 Photoacoustic device, control method, program

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012091042A (en) * 2003-05-08 2012-05-17 Hitachi Medical Corp Ultrasonic diagnostic apparatus
JP2011167330A (en) * 2010-02-18 2011-09-01 Ge Medical Systems Global Technology Co Llc Ultrasonic diagnostic apparatus
JP2014133133A (en) * 2013-01-10 2014-07-24 Samsung Electronics Co Ltd Lesion diagnosis apparatus and method
JP2015154918A (en) * 2014-02-19 2015-08-27 三星電子株式会社Samsung Electronics Co.,Ltd. Apparatus and method for lesion detection
JP2015202373A (en) * 2014-04-16 2015-11-16 株式会社東芝 Ultrasonic diagnostic device and control program
US20160048737A1 (en) * 2014-08-14 2016-02-18 Samsung Electronics Co., Ltd. Apparatus and method for adaptive computer-aided diagnosis
WO2016088758A1 (en) * 2014-12-01 2016-06-09 国立研究開発法人産業技術総合研究所 Ultrasound examination system and ultrasound examination method
JP2019076699A (en) * 2017-10-26 2019-05-23 株式会社日立製作所 Nodule detection with false positive reduction
JP2019022693A (en) * 2018-09-21 2019-02-14 株式会社日立製作所 Ultrasonic diagnostic device, and operation method for ultrasonic diagnostic device

Also Published As

Publication number Publication date
JP2021007512A (en) 2021-01-28

Similar Documents

Publication Publication Date Title
JP7230255B2 (en) Analysis device and analysis program
JP4745133B2 (en) Ultrasonic diagnostic apparatus, medical image processing apparatus, and medical image processing program
US12133768B2 (en) Ultrasonic diagnostic apparatus, medical imaging apparatus, training device, ultrasonic image display method, and storage medium
JP6462340B2 (en) Ultrasonic diagnostic apparatus, image processing apparatus, and image processing method
JP7461530B2 (en) Ultrasound diagnostic device and puncture support program
JP2023160986A (en) Ultrasonic diagnostic device and analysis device
CN106963419B (en) Analysis device
JP7490839B2 (en) Analysis device and analysis program
JP7309355B2 (en) Medical image generation device and medical image generation program
US11337674B2 (en) Ultrasonography apparatus and control method
CN111839583B (en) Ultrasonic diagnostic apparatus and analysis apparatus
EP3378405A1 (en) Volume rendered ultrasound imaging
JP7282564B2 (en) Medical diagnostic device, medical image processing device, and image processing program
US11850101B2 (en) Medical image diagnostic apparatus, medical image processing apparatus, and medical image processing method
JP5823184B2 (en) Ultrasonic diagnostic apparatus, medical image processing apparatus, and medical image processing program
JP2021049129A (en) Ultrasound diagnostic device and image processing device
US20220079553A1 (en) Ultrasound diagnosis apparatus, measurement condition setting method, and non-transitory computer-readable storage medium
KR20160096442A (en) Untrasound dianognosis apparatus and operating method thereof
JP2013099386A (en) Ultrasonic diagnostic apparatus and medical image processing apparatus
US20250072869A1 (en) Ultrasonic diagnostic apparatus, method, and storage medium
JP4966226B2 (en) Ultrasonic image processing apparatus and method, and program
US12059305B2 (en) Ultrasonic diagnostic device, medical image processing device, and medical image processing method
JP2023148356A (en) Medical information processing device, ultrasound diagnostic device, and learning data generation method
JP2022074921A (en) Medical image processing equipment and medical image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231013

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240802

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240911

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20241111

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20241211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250311