[go: up one dir, main page]

JP4472631B2 - Image processing apparatus and image processing method in the image processing apparatus - Google Patents

Image processing apparatus and image processing method in the image processing apparatus Download PDF

Info

Publication number
JP4472631B2
JP4472631B2 JP2005380210A JP2005380210A JP4472631B2 JP 4472631 B2 JP4472631 B2 JP 4472631B2 JP 2005380210 A JP2005380210 A JP 2005380210A JP 2005380210 A JP2005380210 A JP 2005380210A JP 4472631 B2 JP4472631 B2 JP 4472631B2
Authority
JP
Japan
Prior art keywords
image
image processing
processing apparatus
representative value
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005380210A
Other languages
Japanese (ja)
Other versions
JP2007175432A (en
Inventor
博一 西村
徹緒 野波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Medical Systems Corp
Original Assignee
Olympus Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2005380210A priority Critical patent/JP4472631B2/en
Application filed by Olympus Medical Systems Corp filed Critical Olympus Medical Systems Corp
Priority to EP11008465.4A priority patent/EP2412300B1/en
Priority to CN2010105119860A priority patent/CN101947114B/en
Priority to EP11008472.0A priority patent/EP2412301B1/en
Priority to EP06823274A priority patent/EP1969992B1/en
Priority to CN200680049583.0A priority patent/CN101351149B/en
Priority to CN201010511970XA priority patent/CN101947113B/en
Priority to PCT/JP2006/322387 priority patent/WO2007077672A1/en
Priority to US11/638,821 priority patent/US20070165932A1/en
Publication of JP2007175432A publication Critical patent/JP2007175432A/en
Application granted granted Critical
Publication of JP4472631B2 publication Critical patent/JP4472631B2/en
Priority to US13/166,938 priority patent/US8363962B2/en
Priority to US13/168,510 priority patent/US8300955B2/en
Priority to US13/168,483 priority patent/US8369626B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000096Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00011Operational features of endoscopes characterised by signal transmission
    • A61B1/00016Operational features of endoscopes characterised by signal transmission using wireless means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/041Capsule endoscopes for imaging
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Optics & Photonics (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Endoscopes (AREA)

Abstract

The invention provides an image processing device which implements efficiency of an observation by a user and an image processing method in the image processing device. The image processing device is equipped with an image signal input means for inputting image signals from a plurality of images captured by a medical device with an imaging feature, an image segmentation means for dividing each of the plurality of images into a plurality of regions, a characteristic amount calculating means for calculating the amount of characteristics in each of the plurality of regions, a cluster sorting means for sorting each of a plurality of clusters generated in a characteristic space into one of a plurality of classes from the amount of the characteristics and the occurrence frequency of the amount of the characteristics, a subset generating means for generating a plurality of subsets by using the plurality of images,; and a sorting criterion calculating means for calculating sorting criteria when sorting the images included in a subset from the distribution state of the characteristic amount in the characteristic space of each image included in a subset.

Description

本発明は、画像処理装置および当該画像処理装置における画像処理方法に関し、特に、生体粘膜表面の像が良好に撮像されていない画像を除外することができる画像処理装置および当該画像処理装置における画像処理方法に関するものである。   The present invention relates to an image processing apparatus and an image processing method in the image processing apparatus, and in particular, an image processing apparatus capable of excluding an image in which an image of a biological mucous membrane surface is not taken well and image processing in the image processing apparatus It is about the method.

従来、医療分野において、X線、CT、MRI、超音波観測装置及び内視鏡装置等の画像撮像機器を用いた観察が広く行われている。このような画像撮像機器のうち、内視鏡装置は、例えば、生体としての体腔内に挿入される細長の挿入部を有し、該挿入部の先端部に配置された対物光学系により結像した体腔内の像を固体撮像素子等の撮像手段により撮像して撮像信号として出力し、該撮像信号に基づいてモニタ等の表示手段に体腔内の像の画像を表示するという作用及び構成を有する。そして、ユーザは、モニタ等の表示手段に表示された体腔内の像の画像に基づき、例えば、体腔内における臓器等の観察を行う。また、内視鏡装置は、消化管粘膜の像を直接的に撮像することが可能である。そのため、ユーザは、例えば、粘膜の色調、病変の形状及び粘膜表面の微細な構造等の様々な所見を総合的に観察することができる。   Conventionally, in the medical field, observation using image pickup devices such as X-rays, CT, MRI, ultrasonic observation apparatuses and endoscope apparatuses has been widely performed. Among such imaging devices, the endoscope apparatus has, for example, an elongated insertion portion that is inserted into a body cavity as a living body, and is imaged by an objective optical system disposed at the distal end portion of the insertion portion. The image of the body cavity is picked up by an image pickup means such as a solid-state image pickup device and output as an image pickup signal, and the image and image of the body cavity are displayed on a display means such as a monitor based on the image pickup signal. . Then, based on the image of the image in the body cavity displayed on the display unit such as a monitor, the user observes an organ or the like in the body cavity, for example. In addition, the endoscope apparatus can directly capture an image of the digestive tract mucosa. Therefore, the user can comprehensively observe various findings such as the color of the mucous membrane, the shape of the lesion, and the fine structure of the mucosal surface.

そして、近年、前述したような内視鏡装置と略同様の有用性が期待できる画像撮像機器として、例えば、カプセル型内視鏡装置が提案されている。一般的に、カプセル型内視鏡装置は、被検者が口から飲み込むことにより体腔内に配置され、撮像した該体腔内の像を撮像信号として外部に送信するカプセル型内視鏡と、送信された該撮像信号を体腔外で受信した後、受信した該撮像信号を蓄積するレシーバと、レシーバに蓄積された撮像信号に基づく体腔内の像の画像を観察するための観察装置とから構成される。   In recent years, for example, a capsule endoscope apparatus has been proposed as an imaging apparatus that can be expected to have substantially the same usefulness as the above-described endoscope apparatus. In general, a capsule endoscope device is placed in a body cavity when a subject swallows it from the mouth, and the capsule endoscope device transmits an image of the imaged body cavity to the outside as an imaging signal. A receiver for storing the received imaging signal after receiving the captured imaging signal outside the body cavity, and an observation device for observing an image of the image in the body cavity based on the imaging signal stored in the receiver The

カプセル型内視鏡装置を構成するカプセル型内視鏡は、消化管の蠕動運動により進むため、例えば、口から体腔内に入れられた後、肛門から排出されるまで数時間程度の時間がかかることが一般的である。そして、カプセル型内視鏡は、体腔内に入れられた後、排出されるまでの間、レシーバに対して撮像信号を略常時出力し続けるため、例えば、数時間分の動画像における、レシーバに蓄積されたフレーム画像としての静止画像の枚数は膨大なものとなる。そのため、ユーザによる観察の効率化という点において、例えば、蓄積された画像のうち、出血部位等の病変部位が含まれる所定の画像を検出するような画像処理方法が行われた上において、該所定の画像以外の画像を表示または記憶しないという処理が行われることにより、画像のデータ量が削減されるような提案が望まれている。   Since the capsule endoscope that constitutes the capsule endoscope apparatus advances by peristaltic movement of the digestive tract, for example, it takes several hours to be discharged from the anus after being inserted into the body cavity from the mouth. It is common. And since the capsule endoscope keeps outputting the imaging signal to the receiver almost constantly until it is discharged after being put in the body cavity, for example, in the moving image for several hours, The number of still images as accumulated frame images is enormous. Therefore, in terms of improving the efficiency of observation by the user, for example, an image processing method for detecting a predetermined image including a lesion site such as a bleeding site from the accumulated image is performed. There is a demand for a proposal that reduces the data amount of an image by performing a process of not displaying or storing an image other than the first image.

前述したような画像処理方法としては、例えば、特許文献1に記載されているようなものがある。特許文献1に記載されている、生体内での比色分析の異常を検出するための方法は、正常粘膜と出血部位との色調の違いに着目し、色調を特徴量と設定した特徴空間における各平均値からの距離に基づき、画像の分割領域毎に出血部位の検出を行う方法、すなわち、病変部位としての出血部位が含まれる所定の画像を検出するための方法を有する画像処理方法である。   As an image processing method as described above, for example, there is a method described in Patent Document 1. The method for detecting colorimetric abnormality in vivo described in Patent Document 1 focuses on the difference in color tone between the normal mucous membrane and the bleeding site, and in a feature space in which the color tone is set as a feature amount. This is an image processing method including a method for detecting a bleeding site for each divided region of an image based on a distance from each average value, that is, a method for detecting a predetermined image including a bleeding site as a lesion site. .

PCT WO 02/073507 A2号公報PCT WO 02/073507 A2

しかし、特許文献1に記載されている画像処理方法においては、以下に記すような課題がある。   However, the image processing method described in Patent Document 1 has the following problems.

一般に、消化管においては、常に生体粘膜表面の像のみの撮像が行われている訳ではなく、例えば、便、泡、粘液または食物残渣等の異物の像と、生体粘膜表面の像とが混在した状態において撮像が行われている。そのため、前述したような異物の存在を考慮していない特許文献1に記載されている画像処理方法においては、例えば、該異物により正常粘膜を出血部位と誤検出してしまう可能性、及び該異物の像が大部分を占めるような画像を検出する可能性が考えられる。その結果、ユーザによる観察の効率化をはかることができないという課題が生じている。   In general, in the digestive tract, only the image of the surface of the living body mucosa is not always captured. For example, the image of a foreign body such as stool, foam, mucus or food residue and the image of the surface of the living body mucosa are mixed. In this state, imaging is performed. Therefore, in the image processing method described in Patent Document 1 that does not consider the presence of foreign matter as described above, for example, the possibility that the normal mucous membrane may be erroneously detected as a bleeding site by the foreign matter, and the foreign matter There is a possibility of detecting an image in which most of the image is occupied. As a result, there is a problem that the efficiency of observation by the user cannot be achieved.

本発明は、前述した点に鑑みてなされたものであり、例えば、生体粘膜表面の像としての胃粘膜及び絨毛の像と、異物の像としての便及び泡の像とを画像の小領域毎に識別して分類することにより、画像の小領域の多くを異物の像が占めるような、生体粘膜表面の像が良好に撮像されていない画像を、観察不要の画像として容易に除外することができ、さらに、前記分類結果に基づいて撮像された臓器を特定することができ、その結果、ユーザによる観察の効率化をはかることのできる画像処理装置および当該画像処理装置における画像処理方法を提供することを目的としている。   The present invention has been made in view of the above-described points. For example, an image of the gastric mucosa and villus as an image of the surface of a living mucosa and an image of stool and bubbles as images of a foreign body are provided for each small region of the image. By classifying and classifying images, it is possible to easily exclude images that do not have a good image of the surface of the biological mucosa, such as images of foreign matter occupying many small areas of the image, as images that do not require observation. Further, an image processing apparatus capable of specifying an imaged organ based on the classification result and, as a result, improving the efficiency of observation by a user, and an image processing method in the image processing apparatus are provided. The purpose is that.

また、本発明は、生体粘膜表面の像として分類された各々の領域に対し、さらに、例えば、前記各々の領域が有する特徴量に基づき、正常な粘膜の像と病変部位の像と分類するような画像処理方法を用いることにより、病変部位の検出精度を高めることができる画像処理装置および当該画像処理装置における画像処理方法を提供することを目的としている。   In addition, according to the present invention, for each region classified as an image on the surface of a living mucosa, for example, based on the feature amount of each region, a normal mucosa image and a lesion site image are classified. An object of the present invention is to provide an image processing apparatus capable of improving the detection accuracy of a lesion site by using a simple image processing method and an image processing method in the image processing apparatus.

本発明における第1の画像処理装置は、撮像機能を有する医療機器により撮像された複数の画像に基づく画像信号を入力する画像信号入力手段と、前記画像信号入力手段において入力した画像信号に基づき、前記複数の画像を各々複数の領域に分割する画像分割手段と、前記画像分割手段により分割された前記複数の領域各々における特徴量を算出する特徴量算出手段と、前記特徴量及び前記特徴量の発生頻度に基づき、特徴空間において複数のクラスタを生成するとともに、該複数のクラスタを複数のクラスのいずれかに各々分類するクラスタ分類手段と、前記複数の画像を用い、前記複数の画像が各々撮像されたタイミングに基づく複数のサブセットを生成するサブセット生成手段と、前記サブセット生成手段により生成された一のサブセットに含まれる画像各々の、前記特徴空間における前記特徴量の分布状態に基づき、前記一のサブセットに含まれる画像を、前記複数のクラスのいずれかに各々分類する際の分類基準を算出する分類基準算出手段とを具備することを特徴とする。   The first image processing apparatus according to the present invention is based on an image signal input unit that inputs image signals based on a plurality of images captured by a medical device having an imaging function, and an image signal input in the image signal input unit, Image dividing means for dividing each of the plurality of images into a plurality of areas; feature quantity calculating means for calculating a feature quantity in each of the plurality of areas divided by the image dividing means; and the feature quantity and the feature quantity Based on the occurrence frequency, a plurality of clusters are generated in the feature space, and each of the plurality of images is captured using a cluster classification unit that classifies each of the plurality of clusters into one of a plurality of classes, and the plurality of images. Subset generating means for generating a plurality of subsets based on the determined timing, and one sub-generation generated by the subset generating means A classification criterion for classifying the images included in the one subset into any of the plurality of classes, based on a distribution state of the feature values in the feature space of each of the images included in the network. And a classification standard calculation means.

本発明における第2の画像処理装置は、前記第1の画像処理装置において、さらに、前記分類基準算出手段は、前記複数のクラスのうち、一のサブセットにおいて前記特徴量が発生しないクラスについては、前記分類基準を算出しないことを特徴とする。   The second image processing apparatus according to the present invention is the first image processing apparatus, and further, the classification criterion calculating means is configured to classify the class in which the feature amount does not occur in one subset of the plurality of classes. The classification criterion is not calculated.

本発明における第3の画像処理装置は、前記第1または第2の画像処理装置において、前記複数のクラスは、生体粘膜に関するクラスと、非生体粘膜に関するクラスとを少なくとも有することを特徴とする。   The third image processing apparatus according to the present invention is characterized in that, in the first or second image processing apparatus, the plurality of classes include at least a class relating to a biological mucosa and a class relating to a non-biological mucosa.

本発明における第4の画像処理装置は、前記第3の画像処理装置において、さらに、前記分類基準に基づき、前記一のサブセットに含まれる一の画像における各領域の分類を行う分類手段と、前記一の画像の分類結果に基づき、前記一の画像が前記生体粘膜に関するクラスとして分類された領域を有している場合、該領域各々に対し、病変箇所を検出するための処理を行う病変検出手段とを有することを特徴とする。   According to a fourth image processing apparatus of the present invention, in the third image processing apparatus, a classification unit that classifies each region in one image included in the one subset based on the classification criterion; When the one image has a region classified as a class related to the biological mucous membrane based on the classification result of one image, a lesion detection unit that performs a process for detecting a lesion location for each region It is characterized by having.

本発明における第5の画像処理装置は、撮像機能を有する医療機器により時系列的に撮像された複数の画像に基づく画像信号を入力する画像信号入力手段と、前記画像信号入力手段において入力した画像信号に基づき、前記複数の画像を各々複数の領域に分割する画像分割手段と、前記画像分割手段により分割された前記複数の領域各々における特徴量を算出する特徴量算出手段と、前記特徴量に基づき、前記複数の領域各々を複数のクラスのいずれかに各々分類する画像領域分類手段と、前記複数の画像各々において、少なくとも一のクラスの特徴量の代表値を算出する代表値算出手段と、前記代表値の変動を時系列的に検出する変動検出手段とを具備することを特徴とする。 According to a fifth image processing apparatus of the present invention, an image signal input unit that inputs image signals based on a plurality of images captured in time series by a medical device having an imaging function, and an image input by the image signal input unit Based on the signal, an image dividing unit that divides the plurality of images into a plurality of regions, a feature amount calculating unit that calculates a feature amount in each of the plurality of regions divided by the image dividing unit, and a feature amount An image region classifying unit that classifies each of the plurality of regions into one of a plurality of classes, and a representative value calculating unit that calculates a representative value of at least one class of feature values in each of the plurality of images; And a fluctuation detecting means for detecting the fluctuation of the representative value in time series .

本発明における第6の画像処理装置は、前記第5の画像処理装置において、さらに、前記代表値各々に対して時系列方向の平滑化を適用する平滑化手段を有し、前記変動検出手段は、前記平滑化手段により平滑化された後の前記代表値に基づき、前記代表値の変動が極大となる画像または時間のいずれかを検出することを特徴とする。   The sixth image processing apparatus according to the present invention further includes smoothing means for applying smoothing in a time series direction to each of the representative values in the fifth image processing apparatus, and the fluctuation detecting means is , Based on the representative value smoothed by the smoothing means, detecting either an image or a time at which the fluctuation of the representative value is maximized.

本発明における第7の画像処理装置は、前記第5または第6の画像処理装置において、前記代表値の変動は、生体内における観察部位の変化に基づいて生じるものであることを特徴とする。   The seventh image processing apparatus according to the present invention is characterized in that, in the fifth or sixth image processing apparatus, the variation of the representative value is caused based on a change in an observation site in a living body.

本発明における第8の画像処理装置は、前記第5または第6の画像処理装置において、前記代表値の変動は、生体内における便の存在に基づいて生じるものであることを特徴とする。   The eighth image processing apparatus according to the present invention is characterized in that, in the fifth or sixth image processing apparatus, the variation of the representative value is caused based on the presence of feces in a living body.

本発明における第9の画像処理装置は、前記第5または第6の画像処理装置において、前記代表値の変動は、生体内における胆汁の存在に基づいて生じるものであることを特徴とする。   According to a ninth image processing apparatus of the present invention, in the fifth or sixth image processing apparatus, the variation of the representative value is caused based on the presence of bile in a living body.

本発明における第10の画像処理装置は、前記第5または第6の画像処理装置において、前記代表値の変動は、生体内における病変部位の存在に基づいて生じるものであることを特徴とする。   The tenth image processing apparatus according to the present invention is characterized in that, in the fifth or sixth image processing apparatus, the variation of the representative value is caused based on the presence of a lesion site in a living body.

本発明における第11の画像処理装置は、前記第5乃至第10の画像処理装置において、前記代表値は、前記複数のクラス各々における特徴量の平均値であることを特徴とする。
本発明における第12の画像処理装置は、前記第4の画像処理装置において、前記病変検出手段は、前記医療機器に設けられていることを特徴とする。
本発明における第13の画像処理装置は、前記第5の画像処理装置において、前記変動検出手段は、前記時系列的に検出された代表値の変動が極大となる画像または時間のいずれかを検出する処理を行うことを特徴とする。
In an eleventh image processing apparatus according to the present invention, in the fifth to tenth image processing apparatuses, the representative value is an average value of feature amounts in each of the plurality of classes.
According to a twelfth image processing apparatus of the present invention, in the fourth image processing apparatus, the lesion detection means is provided in the medical device.
In a thirteenth image processing apparatus according to the present invention, in the fifth image processing apparatus, the variation detecting means detects either an image or a time at which the variation of the representative value detected in time series becomes a maximum. It is characterized in that the processing is performed.

本発明における第1の画像処理方法は、撮像機能を有する医療機器により撮像された画像に基づいて入力される画像信号に基づき、前記画像を各々複数の領域に分割する画像分割ステップと、前記画像分割ステップにより分割された前記複数の領域各々における特徴量を算出する特徴量算出ステップと、前記特徴量及び前記特徴量の発生頻度に基づき、特徴空間において複数のクラスタを生成するとともに、該複数のクラスタを複数のクラスのいずれかに各々分類するクラスタ分類ステップと、前記複数の画像を用い、前記複数の画像が各々撮像されたタイミングに基づく複数のサブセットを生成するサブセット生成ステップと、前記サブセット生成ステップにより生成された一のサブセットに含まれる画像各々の、前記特徴空間における前記特徴量の分布状態に基づき、前記一のサブセットに含まれる画像を各々分類する際の分類基準を算出する分類基準算出ステップとを具備することを特徴とする。   According to a first image processing method of the present invention, an image dividing step for dividing each of the images into a plurality of regions based on an image signal input based on an image captured by a medical device having an imaging function; A feature amount calculating step for calculating a feature amount in each of the plurality of regions divided by the dividing step; generating a plurality of clusters in a feature space based on the feature amount and the frequency of occurrence of the feature amount; and A cluster classification step of classifying each of the clusters into a plurality of classes, a subset generation step of generating a plurality of subsets based on the timing at which each of the plurality of images is captured using the plurality of images, and the subset generation Each of the images included in one subset generated by the step in the feature space Based on the distribution state of the feature, characterized by comprising a classification criterion calculating step of calculating a classification criteria for classifying each of the images included in the subset of the one.

本発明における第2の画像処理方法は、前記第1の画像処理方法において、さらに、前記分類基準算出ステップは、前記複数のクラスのうち、一のサブセットにおいて前記特徴量が発生しないクラスについては、前記分類基準を算出しないことを特徴とする。   According to a second image processing method of the present invention, in the first image processing method, the classification reference calculation step further includes a step in which the feature quantity does not occur in one subset of the plurality of classes. The classification criterion is not calculated.

本発明における第3の画像処理方法は、前記第1または第2の画像処理方法において、前記複数のクラスは、生体粘膜に関するクラスと、非生体粘膜に関するクラスとを少なくとも有することを特徴とする。   According to a third image processing method of the present invention, in the first or second image processing method, the plurality of classes include at least a class related to a biological mucosa and a class related to a non-biological mucosa.

本発明における第4の画像処理方法は、前記第3の画像処理方法において、さらに、前記分類基準に基づき、前記一のサブセットに含まれる一の画像における各領域の分類を行う分類ステップと、前記一の画像の分類結果に基づき、前記一の画像が前記生体粘膜に関するクラスとして分類された領域を有している場合、該領域各々に対し、病変箇所を検出するための処理を行う病変検出ステップとを有することを特徴とする。   According to a fourth image processing method of the present invention, in the third image processing method, a classification step of classifying each region in one image included in the one subset based on the classification criterion; A lesion detection step of performing a process for detecting a lesion location for each of the regions when the one image has a region classified as a class related to the biological mucous membrane based on the classification result of the one image It is characterized by having.

本発明における第5の画像処理方法は、撮像機能を有する医療機器により撮像された画像に基づいて入力される画像信号に基づき、前記画像を各々複数の領域に分割する画像分割ステップと、前記画像分割ステップにより分割された前記複数の領域各々における特徴量を算出する特徴量算出ステップと、前記特徴量に基づき、前記複数の領域各々を複数のクラスのいずれかに各々分類する画像領域分類ステップと、前記複数の画像各々において、少なくとも一のクラスの特徴量の代表値を算出する代表値算出ステップと、前記代表値の変動を時系列的に検出する変動検出ステップとを具備することを特徴とする。 According to a fifth image processing method of the present invention, an image dividing step of dividing the image into a plurality of regions based on an image signal input based on an image captured by a medical device having an imaging function; A feature amount calculating step for calculating a feature amount in each of the plurality of regions divided by the dividing step; and an image region classification step for classifying each of the plurality of regions into one of a plurality of classes based on the feature amount; Each of the plurality of images, comprising: a representative value calculating step of calculating a representative value of at least one class of feature quantity; and a fluctuation detecting step of detecting a fluctuation of the representative value in time series. To do.

本発明における第6の画像処理方法は、前記第5の画像処理方法において、さらに、前記代表値各々に対して時系列方向の平滑化を適用する平滑化ステップを有し、前記平滑化ステップにより平滑化された後の前記代表値に基づき、前記代表値の変動が極大となる画像または時間のいずれかを検出する処理を前記変動検出ステップにおいて行うことを特徴とする。   According to a sixth image processing method of the present invention, in the fifth image processing method, the image processing method further includes a smoothing step of applying smoothing in a time-series direction to each of the representative values. Based on the representative value after smoothing, a process for detecting either an image or a time at which the fluctuation of the representative value is maximized is performed in the fluctuation detecting step.

本発明における第7の画像処理方法は、前記第5または第6の画像処理方法において、 前記代表値の変動は、生体内における観察部位の変化に基づいて生じるものであることを特徴とする。   According to a seventh image processing method of the present invention, in the fifth or sixth image processing method, the variation in the representative value is caused based on a change in an observation site in a living body.

本発明における第8の画像処理方法は、前記第5または第6の画像処理方法において、前記代表値の変動は、生体内における便の存在に基づいて生じるものであることを特徴とする。   An eighth image processing method according to the present invention is characterized in that, in the fifth or sixth image processing method, the variation of the representative value is caused based on the presence of feces in a living body.

本発明における第9の画像処理方法は、前記第5または第6の画像処理方法において、前記代表値の変動は、生体内における胆汁の存在に基づいて生じるものであることを特徴とする。   According to a ninth image processing method of the present invention, in the fifth or sixth image processing method, the change in the representative value is caused based on the presence of bile in a living body.

本発明における第10の画像処理方法は、前記第5または第6の画像処理方法において、 前記代表値の変動は、生体内における病変部位の存在に基づいて生じるものであることを特徴とする。   The tenth image processing method according to the present invention is characterized in that, in the fifth or sixth image processing method, the variation of the representative value is caused based on the presence of a lesion site in a living body.

本発明における第11の画像処理方法は、前記第5乃至第10の画像処理方法において、前記代表値は、前記複数のクラス各々における特徴量の平均値であることを特徴とする。
本発明における第12の画像処理方法は、前記第4の画像処理方法において、前記病変検出ステップは、前記医療機器内において行われることを特徴とする。
本発明における第13の画像処理方法は、前記第5の画像処理方法において、前記変動検出ステップは、前記時系列的に検出された代表値の変動が極大となる画像または時間のいずれかを検出する処理を行うことを特徴とする。
An eleventh image processing method according to the present invention is characterized in that, in the fifth to tenth image processing methods, the representative value is an average value of feature amounts in each of the plurality of classes.
According to a twelfth image processing method of the present invention, in the fourth image processing method, the lesion detection step is performed in the medical device.
According to a thirteenth image processing method of the present invention, in the fifth image processing method, the variation detection step detects either an image or a time at which the variation of the representative value detected in time series becomes a maximum. It is characterized in that the processing is performed.

本発明における画像処理装置および当該画像処理装置における画像処理方法によると、画像の小領域の多くを異物の像が占めるような、生体粘膜表面の像が良好に撮像されていない画像を、観察不要の画像として容易に除外することができ、さらに、前記分類結果に基づいて撮像された臓器を特定することができ、その結果、ユーザによる観察の効率化をはかることができる。   According to the image processing apparatus and the image processing method in the image processing apparatus of the present invention, it is not necessary to observe an image on which the surface of the biological mucosa is not satisfactorily captured, such as a foreign object occupying many small areas of the image. Can be easily excluded, and further, the imaged organ can be identified based on the classification result, and as a result, the efficiency of observation by the user can be improved.

また、本発明における画像処理装置および当該画像処理装置における画像処理方法によると、生体粘膜表面の像として分類された各々の領域に対し、さらに、例えば、前記各々の領域が有する特徴量に基づき、正常な粘膜の像と病変部位の像と分類するような画像処理方法を用いることにより、病変部位の検出精度を高めることができる。   Further, according to the image processing device and the image processing method in the image processing device of the present invention, for each region classified as an image of the biological mucosal surface, for example, based on the feature amount of each region, By using an image processing method that classifies the image of a normal mucous membrane and an image of a lesion site, the detection accuracy of the lesion site can be improved.

以下、図面を参照して本発明の実施の形態を説明する。図1は、本発明の第1の実施形態である画像処理動作が行われる画像処理装置および周辺機器の外観を示した外観正面図である。図2は、本実施形態の画像処理装置において処理する所定の画像情報を生成するカプセル型内視鏡の一部を切り取って示した要部拡大断面図である。図3は、本実施形態の画像処理装置に所定の画像情報を供給するカプセル型内視鏡装置の概略内部構成を示すブロック図である。図4は、本実施形態の画像処理装置に所定の画像情報を供給するカプセル型内視鏡装置の一使用例を示した図である。図5は、図2に示すカプセル型内視鏡から出力される信号の一例を示したタイミングチャートである。図6は、図2に示すカプセル型内視鏡の位置検出を説明する説明図である。図7は、図3に示すカプセル型内視鏡装置を使用した際におけるアンテナユニットを示した要部拡大断面図である。図8は、図3に示すカプセル型内視鏡装置を使用した際におけるシールドジャケットを説明する説明図である。図9は、図3に示すカプセル型内視鏡装置の外部装置の被検体への装着状態を説明する説明図である。図10は、図2に示すカプセル型内視鏡の電気的な構成を示すブロック図である。図11は、本実施形態に係る画像処理動作を示すフローチャートである。図12は、制御部が行う処理により作成される、特徴空間におけるヒストグラムの一例を示す図である。図13は、制御部が行う処理により作成される、特徴空間におけるクラスタの一例を示す図である。図14は、図13に示すクラスタのうち、特徴空間における面積または体積が所定の閾値未満であるクラスタが削除される様子を示す図である。図15は、制御部が行う処理である、境界が接している2つ以上のクラスタの統合または分離判定の処理の一例を示すフローチャートである。図16は、胃粘膜クラス及び絨毛クラスに分類された領域が有する特徴量μgpの、サブセット毎の時間方向における変化を示すグラフである。図17は、図16のグラフに示される特徴量μgpにおいて、時間方向への平滑化処理を行った場合のグラフである。図18は、制御部が行う処理である、病変検出処理の一例を示すフローチャートである。   Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is an external front view showing the external appearance of an image processing apparatus and peripheral devices that perform an image processing operation according to the first embodiment of the present invention. FIG. 2 is an enlarged cross-sectional view showing a main part of a capsule endoscope that generates predetermined image information to be processed in the image processing apparatus of the present embodiment. FIG. 3 is a block diagram showing a schematic internal configuration of a capsule endoscope apparatus that supplies predetermined image information to the image processing apparatus of the present embodiment. FIG. 4 is a diagram showing an example of use of the capsule endoscope apparatus that supplies predetermined image information to the image processing apparatus of the present embodiment. FIG. 5 is a timing chart showing an example of signals output from the capsule endoscope shown in FIG. FIG. 6 is an explanatory view illustrating position detection of the capsule endoscope shown in FIG. FIG. 7 is an enlarged cross-sectional view showing a main part of the antenna unit when the capsule endoscope apparatus shown in FIG. 3 is used. FIG. 8 is an explanatory diagram for explaining a shield jacket when the capsule endoscope apparatus shown in FIG. 3 is used. FIG. 9 is an explanatory diagram illustrating a state in which the external device of the capsule endoscope apparatus illustrated in FIG. 3 is attached to the subject. FIG. 10 is a block diagram showing an electrical configuration of the capsule endoscope shown in FIG. FIG. 11 is a flowchart showing an image processing operation according to the present embodiment. FIG. 12 is a diagram illustrating an example of a histogram in the feature space created by processing performed by the control unit. FIG. 13 is a diagram illustrating an example of a cluster in the feature space created by processing performed by the control unit. FIG. 14 is a diagram illustrating a state in which clusters having an area or volume in the feature space that is less than a predetermined threshold are deleted from the clusters illustrated in FIG. FIG. 15 is a flowchart illustrating an example of processing for integration or separation determination of two or more clusters in contact with each other, which is processing performed by the control unit. FIG. 16 is a graph showing the change in the time direction for each subset of the feature value μgp of the regions classified into the gastric mucosa class and the villi class. FIG. 17 is a graph when smoothing processing in the time direction is performed on the feature value μgp shown in the graph of FIG. 16. FIG. 18 is a flowchart illustrating an example of a lesion detection process that is a process performed by the control unit.

本発明の実施形態である画像処理装置に所定の画像情報を供給するカプセル型内視鏡装置1は、図3に示すように、カプセル型内視鏡3、アンテナユニット4及び外部装置5とを有して要部が構成されている。   As shown in FIG. 3, a capsule endoscope apparatus 1 that supplies predetermined image information to an image processing apparatus according to an embodiment of the present invention includes a capsule endoscope 3, an antenna unit 4, and an external apparatus 5. The main part is configured.

医療機器としてのカプセル型内視鏡3は、詳細は後述するが、被検体である患者2の口から体腔内に飲み込まれることにより体腔内に配置された後、蠕動運動により消化管内を進行する形状に形成され、かつ、内部に体腔内を撮像し、その撮像画像情報を生成する撮像機能と、その撮像画像情報を体外に送信する送信機能とを有している。アンテナユニット4は、詳細は後述するが、患者2の身体表面上に設置され、前記カプセル型内視鏡3から送信される撮像画像情報を受信する複数の受信アンテナ11を有している。外部装置5は、外形が箱形形状に形成されており、詳細は後述するが、前記アンテナユニット4が受信した撮像画像情報の各種処理、撮像画像情報の記録、及び撮像画像情報による撮像画像表示等の機能を有している。この外部装置5の外装の表面に前記撮像画像を表示させる液晶モニタ12と、各種機能の操作指示を行う操作部13とが設けられている。   The capsule endoscope 3 as a medical device, which will be described in detail later, is placed in the body cavity by being swallowed into the body cavity from the mouth of the patient 2 as the subject, and then advances in the digestive tract by peristaltic movement. It is formed in a shape and has an imaging function for imaging the inside of the body cavity and generating the captured image information, and a transmission function for transmitting the captured image information to the outside of the body. The antenna unit 4 includes a plurality of receiving antennas 11 that are installed on the body surface of the patient 2 and receive captured image information transmitted from the capsule endoscope 3, as will be described in detail later. The external device 5 has an outer shape formed in a box shape, and will be described in detail later. Various processing of captured image information received by the antenna unit 4, recording of captured image information, and captured image display based on captured image information. Etc. A liquid crystal monitor 12 that displays the captured image on the surface of the exterior of the external device 5 and an operation unit 13 that provides operation instructions for various functions are provided.

また、この外部装置5は、駆動電源用の電池の残量に関する警告表示用のLEDと、電源スイッチ等のスイッチからなる操作部13とが外装の表面に設けられている。又、カプセル型内視鏡3の内部には、CPU及びメモリを用いた演算実行部が設けられており、例えば、該演算実行部において、受信及び記録した撮像画像情報に対して後述する画像処理が実行されるような構成であっても良い。   Further, the external device 5 is provided with an LED for displaying a warning regarding the remaining amount of the battery for the driving power source and an operation unit 13 including a switch such as a power switch on the surface of the exterior. In addition, a calculation execution unit using a CPU and a memory is provided inside the capsule endoscope 3. For example, image processing described later is performed on captured image information received and recorded in the calculation execution unit. May be configured to be executed.

この外部装置5は、患者2の身体に着脱自在に装着されると共に、図1に示すように、クレードル6に装着されることにより、本発明の第1の実施形態である画像処理装置(以下、端末装置と記す)7に着脱自在に接続されるようになっている。この端末装置7は、たとえば、パーソナルコンピュータが用いられ、各種データの処理機能や記憶機能を有する端末本体9と、各種操作処理入力用のキーボード8a及びマウス8bと、及び各種処理結果を表示するディスプレイ8cとを有している。この端末装置7は、基本的機能として、例えば、前記外部装置5に記録されている撮像画像情報をクレードル6を介して取り込み、端末本体9に内蔵されている書換可能なメモリ、或いは端末本体9に着脱自在な書換可能な半導体メモリ等の可搬型メモリに書込記録させ、かつ、その記録した撮像画像情報をディスプレイ8cに表示する画像処理を行うような機能を有している。なお、前記外部装置5に記憶されている撮像画像情報は、前記クレードル6に代えて、USBケーブル等によって端末装置7に取り込まれるようにしても良い。   The external device 5 is detachably attached to the body of the patient 2 and is attached to the cradle 6 as shown in FIG. The terminal device is detachably connected. For example, a personal computer is used as the terminal device 7, a terminal main body 9 having various data processing functions and storage functions, a keyboard 8 a and a mouse 8 b for inputting various operation processes, and a display for displaying various process results. 8c. The terminal device 7 has, as a basic function, for example, captured image information recorded in the external device 5 via the cradle 6 and a rewritable memory built in the terminal body 9 or the terminal body 9. It has a function of performing image processing for writing and recording in a portable memory such as a rewritable semiconductor memory that is detachable and displaying the recorded image information on the display 8c. The captured image information stored in the external device 5 may be taken into the terminal device 7 by a USB cable or the like instead of the cradle 6.

なお、端末装置7が行う画像処理は、例えば、前記外部装置5から取り込み記録した撮像画像情報から経過時間に応じて表示させる画像を選択する処理、及び後述する画像処理として、端末本体9が有する制御部9aにおいて行われる。制御部9aは、CPU(中央処理装置)等を有し、例えば、前述したような処理を行う場合に、処理結果を一時的に図示しないレジスタ等に保持することができる。   The image processing performed by the terminal device 7 is included in the terminal body 9 as processing for selecting an image to be displayed according to elapsed time from captured image information captured and recorded from the external device 5 and image processing described later, for example. This is performed in the control unit 9a. The control unit 9a includes a CPU (Central Processing Unit) and the like, and can hold the processing result temporarily in a register (not shown) or the like, for example, when performing the processing as described above.

次に、前記カプセル型内視鏡3の外形と内部構造について、図2を用いて説明する。カプセル型内視鏡3は、断面がU字状の外装部材14と、この外装部材14の先端側の開放端に接着剤により水密装着された透明部材により形成された略半球形状のカバー部材14aと有する。そのため、カプセル型内視鏡3の外装は、外装部材14と、カバー部材14aとが接続された状態においては、水密構造かつカプセル形状を有するように形成されている。   Next, the external shape and internal structure of the capsule endoscope 3 will be described with reference to FIG. The capsule endoscope 3 has a substantially hemispherical cover member 14a formed by an exterior member 14 having a U-shaped cross section and a transparent member that is watertightly attached to the open end of the exterior member 14 with an adhesive. And have. Therefore, the exterior of the capsule endoscope 3 is formed to have a watertight structure and a capsule shape in a state where the exterior member 14 and the cover member 14a are connected.

この外装部材14とカバー部材14aを有するカプセル形状の内部中空部であって、前記カバー部材14aの半球の円弧の略中央にあたる部分には、カバー部材14aを介して入射された観察部位像を取り込む対物レンズ15がレンズ枠16に収納されて配置されている。この対物レンズ15の結像位置には、撮像素子である電荷結合素子(以降、CCDと記す)17が配置されている。また、前記対物レンズ15を収納するレンズ枠16の周囲には、照明光を発光放射させる4つの白色系のLED18が同一平面上に配置されている(図中には2つのLEDのみを表記している)。前記CCD17の後端側の前記外装部材14の内部中空部には、前記CCD17を駆動制御して光電変換された撮像信号の生成、その撮像信号に所定の信号処理を施して撮像画像信号を生成する撮像処理、及び前記LED18の点灯/非点灯の動作を制御するLED駆動の処理を行う処理回路19と、この処理回路19の撮像処理により生成された撮像画像信号を無線信号に変換して送信する通信処理回路20と、この通信処理回路20からの無線信号を外部に送信する送信アンテナ23と、前記処理回路19と通信処理回路20の駆動用電源を供給する複数のボタン型の電池21とが配置されている。   A capsule-shaped internal hollow portion having the exterior member 14 and the cover member 14a, and an observation site image incident through the cover member 14a is taken into a portion corresponding to the approximate center of the hemispherical arc of the cover member 14a. The objective lens 15 is housed and disposed in the lens frame 16. A charge coupled device (hereinafter referred to as a CCD) 17 that is an image pickup device is disposed at the imaging position of the objective lens 15. Further, around the lens frame 16 that houses the objective lens 15, four white LEDs 18 that emit and emit illumination light are arranged on the same plane (only two LEDs are shown in the figure). ing). In the hollow portion of the exterior member 14 on the rear end side of the CCD 17, the CCD 17 is driven to generate a photoelectrically converted imaging signal, and the imaging signal is subjected to predetermined signal processing to generate a captured image signal. A processing circuit 19 that performs an imaging process to be performed and an LED driving process to control the operation of lighting / non-lighting of the LED 18, and a captured image signal generated by the imaging process of the processing circuit 19 is converted into a wireless signal and transmitted. A communication processing circuit 20 for transmitting, a transmission antenna 23 for transmitting a radio signal from the communication processing circuit 20 to the outside, a plurality of button-type batteries 21 for supplying power for driving the processing circuit 19 and the communication processing circuit 20, and Is arranged.

なお、CCD17、LED18、処理回路19、通信処理回路20及び送信アンテナ23は、図示しない基板上に配置され、それらの基板の間は、図示しないフレキシブル基板にて接続されている。また、前記処理回路19には、後述する画像処理を行うための図示しない演算回路を備えている。つまり、前記カプセル型内視鏡3は、図3に示すように、前記CCD17、LED18及び処理回路19とを有する撮像装置43と、前記通信処理回路20を有する送信器37と、送信アンテナ23とを有する。   The CCD 17, the LED 18, the processing circuit 19, the communication processing circuit 20, and the transmission antenna 23 are arranged on a substrate (not shown), and the substrates are connected by a flexible substrate (not shown). The processing circuit 19 includes an arithmetic circuit (not shown) for performing image processing to be described later. That is, as shown in FIG. 3, the capsule endoscope 3 includes an imaging device 43 having the CCD 17, the LED 18, and the processing circuit 19, a transmitter 37 having the communication processing circuit 20, and a transmission antenna 23. Have

次に、前記カプセル型内視鏡3の撮像装置43の詳細構成について、図10を用いて説明する。撮像装置43は、LED18の点灯/非点灯の動作を制御するLEDドライバ18Aと、CCD17の駆動を制御して光電変換された電荷の転送を行う為のCCDドライバ17Aと、前記CCD17から転送された電荷を用いて撮像信号を生成し、かつ、その撮像信号に所定の信号処理を施して撮像画像信号を生成する処理回路19Aと、前記LEDドライバ18A、CCDドライバ17A、処理回路19A、及び送信器37に電池21からの駆動電源を供給するスイッチ部と、前記スイッチ部及びCCDドライバ17Aにタイミング信号を供給するタイミングジェネレータ19Bとからなっている。なお、前記スイッチ部は、電池21から前記LEDドライバ18Aへの電源供給をオン/オフをするスイッチ19Cと、前記CCD17、CCDドライバ17A及び処理回路19Aへの電源供給をオン・オフするスイッチ19Dと、前記送信器37への電源供給をオン/オフするスイッチ19Eとからなっている。また、前記タイミングジェネレータ19Bには、電池21から常時駆動電源が供給されるようになっている。   Next, a detailed configuration of the imaging device 43 of the capsule endoscope 3 will be described with reference to FIG. The imaging device 43 is transferred from the CCD 17, an LED driver 18 A that controls the operation of lighting / non-lighting of the LED 18, a CCD driver 17 A for controlling the driving of the CCD 17 to transfer the photoelectrically converted charges, and the CCD 17. A processing circuit 19A that generates an image pickup signal using electric charges and generates a picked-up image signal by performing predetermined signal processing on the image pickup signal, the LED driver 18A, the CCD driver 17A, the processing circuit 19A, and a transmitter 37 includes a switch unit for supplying driving power from the battery 21 and a timing generator 19B for supplying a timing signal to the switch unit and the CCD driver 17A. The switch unit includes a switch 19C for turning on / off the power supply from the battery 21 to the LED driver 18A, and a switch 19D for turning on / off the power supply to the CCD 17, the CCD driver 17A, and the processing circuit 19A. , And a switch 19E for turning on / off the power supply to the transmitter 37. The timing generator 19B is always supplied with driving power from the battery 21.

このような構成を有するカプセル型内視鏡3の撮像装置43においては、スイッチ19Cと、スイッチ19Dと、スイッチ19Eとがオフ状態である場合、タイミングジェネレータ19B以外の各部は非動作状態である。そして、タイミングジェネレータ19Bからタイミング信号が出力されると、前記スイッチ19Dがオンされ、これにより、電池21から電源が供給されたCCD17、CCDドライバ17A及び処理回路19Aは動作状態となる。   In the imaging device 43 of the capsule endoscope 3 having such a configuration, when the switch 19C, the switch 19D, and the switch 19E are in an off state, each part other than the timing generator 19B is in a non-operating state. When a timing signal is output from the timing generator 19B, the switch 19D is turned on, whereby the CCD 17, the CCD driver 17A, and the processing circuit 19A supplied with power from the battery 21 are in an operating state.

前記CCD17の駆動初期時に、CCD17の電子シャッターを動作させて、不要な暗電流を除去した後、タイミングジェネレータ19Bは、スイッチ19CをオンさせてLEDドライバ18Aを駆動させてLED18を点灯させCCD17を露光する。LED18は、CCD17の露光に必要な所定の時間だけ点灯された後、消費電力低減の為に、スイッチ19Cがオフしたタイミングにおいて消灯される。   At the initial stage of the driving of the CCD 17, the electronic shutter of the CCD 17 is operated to remove unnecessary dark current, and then the timing generator 19B turns on the switch 19C to drive the LED driver 18A to light the LED 18 and expose the CCD 17. To do. The LED 18 is turned on for a predetermined time required for exposure of the CCD 17 and then turned off when the switch 19C is turned off to reduce power consumption.

前記CCD17の露光が行われた前記所定の時間内に蓄えられた電荷は、CCDドライバ17Aの制御により処理回路19Aへ転送される。処理回路19Aは、CCD17から転送された電荷を基に撮像信号を生成し、その撮像信号に所定の信号処理を施して内視鏡画像信号を生成する。処理回路19Aは、例えば、送信器37から送信される信号がアナログ無線方式である場合、CDS出力信号に対して複合同期信号を重畳させたアナログ撮像信号を生成した後、該アナログ撮像信号を内視鏡画像信号として送信器37へ出力する。また、処理回路19Aは、例えば、送信器37から送信される信号がデジタル無線方式である場合、アナログ/デジタルコンバータにより生成したシリアルなデジタル信号に対し、さらにスクランブル等の符号化処理を施したデジタル撮像画像信号を生成し、該デジタル撮像信号を内視鏡画像信号として送信器37へ出力する。   Charges stored within the predetermined time when the CCD 17 is exposed are transferred to the processing circuit 19A under the control of the CCD driver 17A. The processing circuit 19A generates an imaging signal based on the charges transferred from the CCD 17, and performs predetermined signal processing on the imaging signal to generate an endoscope image signal. For example, when the signal transmitted from the transmitter 37 is an analog wireless system, the processing circuit 19A generates an analog imaging signal in which the composite synchronization signal is superimposed on the CDS output signal, and then stores the analog imaging signal. The image is output to the transmitter 37 as an endoscope image signal. Further, for example, when the signal transmitted from the transmitter 37 is a digital wireless system, the processing circuit 19A is a digital signal obtained by further performing a coding process such as scrambling on the serial digital signal generated by the analog / digital converter. A captured image signal is generated, and the digital captured image signal is output to the transmitter 37 as an endoscope image signal.

この送信器37は、前記処理回路19Aから供給された内視鏡画像信号である、アナログ撮像画像信号またはデジタル撮像画像信号に対して変調処理を施して送信アンテナ23から外部へ無線送信する。この時、スイッチ19Eは、前記処理回路19Aから撮像画像信号が出力されたタイミングにおいてのみ送信器37に駆動電力が供給されるように、タイミングジェネレータ19Bによりオン/オフされる。   The transmitter 37 modulates an analog captured image signal or a digital captured image signal, which is an endoscope image signal supplied from the processing circuit 19A, and wirelessly transmits the signal from the transmission antenna 23 to the outside. At this time, the switch 19E is turned on / off by the timing generator 19B so that the driving power is supplied to the transmitter 37 only at the timing when the captured image signal is output from the processing circuit 19A.

なお、スイッチ19Eは、処理回路19Aから撮像画像信号が出力されてから所定の時間が経過した後に、送信器37に駆動電力が供給されるように制御されても良い。また、スイッチ19Eは、カプセル型内視鏡3に設けられた、図示しないpHセンサーによる所定値のpH値の検出、図示しない湿度センサーによる所定値以上の湿度の検出、図示しない圧力センサーまたは図示しない加速度センサーによる所定値以上の圧力または加速度の検出等の検出結果に基づいてタイミングジェネレータ19Bから出力される信号により、被検体である患者2の体腔内に挿入された際に、送信器37に電源を供給するように制御されるような構成を有していても良い。   Note that the switch 19E may be controlled so that driving power is supplied to the transmitter 37 after a predetermined time has elapsed since the captured image signal was output from the processing circuit 19A. Further, the switch 19E is provided in the capsule endoscope 3 to detect a predetermined pH value by a pH sensor (not shown), to detect a humidity higher than a predetermined value by a humidity sensor (not shown), a pressure sensor (not shown), or not shown. When the signal is output from the timing generator 19B based on a detection result such as detection of pressure or acceleration exceeding a predetermined value by the acceleration sensor, the transmitter 37 is supplied with power when inserted into the body cavity of the patient 2 as the subject. It is also possible to have a configuration that is controlled so as to supply.

なお、前記カプセル型内視鏡3の撮像装置43は、通常毎秒2枚の画像(毎秒2フレーム=2fps)を撮像するものであるが、例えば、食道の検査の場合は、毎秒15〜30枚の画像(15fps〜30fps)を撮像できるようにする。具体的には、カプセル型内視鏡3に、図示しないタイマー回路を設け、このタイマー回路により、例えば、タイマーカウントが所定時間以内においては毎秒当たりの撮像枚数の多い高速撮像とし、所定時間が経過した後は、毎秒当たりの撮像枚数の少ない低速撮像となるように撮像装置43の駆動を制御させる。或いは、カプセル型内視鏡3の電源の投入と共にタイマー回路を作動させて、このタイマー回路により、例えば、患者2が飲み込んだ直後の食道を通過するまでの時間は高速撮像となるように、撮像装置43の駆動を制御させることも可能である。さらに、低速撮像用カプセル型内視鏡と高速撮像用カプセル型内視鏡とを個別に設けて、観察対象部位に応じて使い分けるようにしても良い。   The imaging device 43 of the capsule endoscope 3 normally captures two images per second (2 frames per second = 2 fps). For example, in the case of an examination of the esophagus, 15 to 30 images per second. Image (15 fps to 30 fps). Specifically, the capsule endoscope 3 is provided with a timer circuit (not shown). By this timer circuit, for example, when the timer count is within a predetermined time, high-speed imaging with a large number of images per second is performed, and the predetermined time has elapsed. After that, the drive of the imaging device 43 is controlled so as to achieve low-speed imaging with a small number of images taken per second. Alternatively, when the capsule endoscope 3 is turned on, a timer circuit is activated and, for example, the time until the patient 2 passes through the esophagus immediately after swallowing is imaged at high speed. It is also possible to control the drive of the device 43. Further, a capsule endoscope for low-speed imaging and a capsule endoscope for high-speed imaging may be provided separately and used separately according to the observation target region.

次に、前記患者2の身体表面上に設置されるアンテナユニット4について説明する。図4に示すように、カプセル型内視鏡3を飲み込んで内視鏡検査を行う場合、患者2は、複数の受信アンテナ11からなるアンテナユニット4が設置されたジャケット10を装着する。このアンテナユニット4は、図7に示すように、たとえば、GPSに使用されているパッチアンテナのような単方向の指向性を有する複数の受信アンテナ11を患者2の身体内方向にその指向性を向けて配置する。つまり、カプセル型内視鏡3のカプセル本体3Dは、身体内に留置されるため、その身体内のカプセル本体3Dを取り囲むように前記複数のアンテナ11が配置される。この指向性の高いアンテナ11を使用することにより、身体内のカプセル本体3D以外からの電波による干渉妨害の影響を受けにくくしている。   Next, the antenna unit 4 installed on the body surface of the patient 2 will be described. As shown in FIG. 4, when performing an endoscopic examination by swallowing the capsule endoscope 3, the patient 2 wears a jacket 10 in which an antenna unit 4 including a plurality of receiving antennas 11 is installed. As shown in FIG. 7, this antenna unit 4 has a plurality of receiving antennas 11 having unidirectional directivities, such as patch antennas used for GPS, in the direction of the body of the patient 2. Place it facing. That is, since the capsule body 3D of the capsule endoscope 3 is placed in the body, the plurality of antennas 11 are arranged so as to surround the capsule body 3D in the body. By using this highly directional antenna 11, the antenna 11 is less susceptible to interference from radio waves from other than the capsule body 3D in the body.

前記ジャケット10は、図8に示すように、患者2の身体表面に設置する前記アンテナユニット4と、ベルトにより患者2の腰に設置された外部装置5の本体部5Dを覆うように電磁シールド繊維で形成されたシールドジャケット72とからなる。このシールドジャケット72を形成する電磁シールド繊維は、金属繊維、金属化学繊維、硫化銅含有繊維等が用いられている。なお、このシールドジャケット72は、ジャケット形状に限るものではなく、例えば、ベスト、ワンピース形状等であっても良い。   As shown in FIG. 8, the jacket 10 covers the antenna unit 4 installed on the body surface of the patient 2 and an electromagnetic shielding fiber so as to cover the main body 5D of the external device 5 installed on the waist of the patient 2 with a belt. And a shield jacket 72 formed of As the electromagnetic shield fiber forming the shield jacket 72, metal fiber, metal chemical fiber, copper sulfide-containing fiber, or the like is used. The shield jacket 72 is not limited to a jacket shape, and may be, for example, a vest or a one-piece shape.

又、前記シールドジャケット72に前記外部装置5を装着する例として、図9に示すように、前記外部装置5の外部本体5Dに鍵穴74を設け、前記シールドジャケット72に設けた鍵75を前記鍵穴74に差し込むことにより、ベルト73に着脱自在に装着できるようにする。或いは、単にシールドジャケット72に図示しないポケットを設け、そのポケットに外部本体5Dを収納したり、又は、外部装置5の外部本体5Dとシールドジャケット72にマジックテープ(登録商標)を設置し、そのマジックテープ(登録商標)により取付固定しても良い。   As an example of attaching the external device 5 to the shield jacket 72, as shown in FIG. 9, a key hole 74 is provided in the external main body 5D of the external device 5, and a key 75 provided in the shield jacket 72 is attached to the key hole. By being inserted into 74, the belt 73 can be detachably mounted. Alternatively, a pocket (not shown) is simply provided in the shield jacket 72, and the external main body 5D is stored in the pocket, or a magic tape (registered trademark) is installed on the external main body 5D and the shield jacket 72 of the external device 5, and the magic You may attach and fix with a tape (trademark).

つまり、アンテナユニット4が配置された身体にシールドジャケット72を装着することにより、アンテナユニット4に対する外部からの電波がシールド遮蔽されて、外部電波による干渉妨害の影響を一層受けにくくしている。   That is, by attaching the shield jacket 72 to the body on which the antenna unit 4 is disposed, the external radio wave with respect to the antenna unit 4 is shielded and shielded from being affected by interference from external radio waves.

次に、前記アンテナユニット4と外部装置5の構成について、図3を用いて説明する。前記アンテナユニット4は、前記カプセル型内視鏡3の送信アンテナ23から送信された無線信号を受信する複数の受信アンテナ11a〜11dと、このアンテナ11a〜11dを切り替えるアンテナ切換スイッチ45とからなる。前記外部装置5は、アンテナ切換スイッチ45からの無線信号を撮像画像信号に変換及び増幅等の受信処理を行う受信回路33と、この受信回路33から供給された撮像画像信号に所定の信号処理を施して、撮像画像の表示用信号及び撮像画像データを生成する信号処理回路35と、この信号処理回路35により生成された撮像画像表示用信号に基づいて撮像画像を表示する液晶モニタ12と、前記信号処理回路35により生成された撮像画像データを記憶するメモリ47と、前記受信回路33により受信処理された無線信号の大きさにより前記アンテナ切換スイッチ45を制御するアンテナ選択回路46とからなる。   Next, the configuration of the antenna unit 4 and the external device 5 will be described with reference to FIG. The antenna unit 4 includes a plurality of reception antennas 11a to 11d that receive radio signals transmitted from the transmission antenna 23 of the capsule endoscope 3, and an antenna changeover switch 45 that switches the antennas 11a to 11d. The external device 5 converts a radio signal from the antenna changeover switch 45 into a captured image signal, performs reception processing such as amplification and amplification, and performs predetermined signal processing on the captured image signal supplied from the reception circuit 33. And a signal processing circuit 35 for generating a captured image display signal and captured image data; a liquid crystal monitor 12 for displaying a captured image based on the captured image display signal generated by the signal processing circuit 35; It comprises a memory 47 for storing captured image data generated by the signal processing circuit 35 and an antenna selection circuit 46 for controlling the antenna selector switch 45 according to the magnitude of the radio signal received by the receiving circuit 33.

前記アンテナユニット4の図中受信アンテナ11a〜11dとして示した複数の受信アンテナ11は、前記カプセル型内視鏡3の送信アンテナ23から一定の電波強度により送信された無線信号を受信する。この複数の受信アンテナ11a〜11dは、前記外部装置5のアンテナ選択回路46からのアンテナ選択信号によりアンテナ切替スイッチ45が制御されて、前記無線信号を受信する受信アンテナを順次切り替える。つまり、前記アンテナ切替スイッチ45により順次切り替えられた各受信アンテナ11a〜d毎に受信した無線信号が前記受信器33に出力される。この受信器33において、各受信アンテナ11a〜11d毎の無線信号の受信強度を検出して、各受信アンテナ11a〜11dとカプセル型内視鏡3の位置関係を算出すると共に、その無線信号を復調処理して撮像画像信号を信号処理回路35へと出力する。前記アンテナ選択回路46は、前記受信器33からの出力によって制御される。   A plurality of receiving antennas 11 shown as receiving antennas 11 a to 11 d in the figure of the antenna unit 4 receive radio signals transmitted from the transmitting antenna 23 of the capsule endoscope 3 with a certain radio wave intensity. The plurality of reception antennas 11a to 11d are sequentially switched to the reception antennas that receive the radio signals, with the antenna switch 45 being controlled by an antenna selection signal from the antenna selection circuit 46 of the external device 5. That is, the radio signal received for each of the receiving antennas 11 a to 11 d sequentially switched by the antenna selector switch 45 is output to the receiver 33. The receiver 33 detects the reception intensity of the radio signal for each of the receiving antennas 11a to 11d, calculates the positional relationship between the receiving antennas 11a to 11d and the capsule endoscope 3, and demodulates the radio signal. The captured image signal is output to the signal processing circuit 35 by processing. The antenna selection circuit 46 is controlled by the output from the receiver 33.

前記アンテナ選択回路46によるアンテナ切替スイッチ45の動作について説明する。前記カプセル型内視鏡3から送信される無線信号は、図5に示すように、撮像画像信号の1フレームの送信期間に、無線信号の受信強度を示す受信強度信号の送信期間である強度受信期間と、撮像画像信号の送信期間である映像信号期間とが順次繰り返されて送信されるとする。   The operation of the antenna selector switch 45 by the antenna selection circuit 46 will be described. As shown in FIG. 5, the radio signal transmitted from the capsule endoscope 3 has an intensity reception that is a transmission period of a reception intensity signal indicating the reception intensity of the radio signal in the transmission period of one frame of the captured image signal. It is assumed that the period and the video signal period that is the transmission period of the captured image signal are sequentially repeated and transmitted.

前記アンテナ選択回路46は、前記受信回路33を介して、各受信アンテナ11a〜11dが受信した受信強度信号の受信強度が供給される。前記アンテナ選択回路46は、前記受信器33からの供給された各アンテナ11a〜11dの受信強度信号の強度を比較して、映像信号期間の撮像画像信号を受信する最適な受信アンテナ、つまり、受信強度信号の強度が最も高いアンテナ11i(i=a〜d)を決定して、アンテナ切替回路45をそのアンテナ11iに切り替えるための制御信号を生成出力する。これにより、現在画像信号を受信しているアンテナよりも、他のアンテナの受信強度信号の受信強度が高い場合には、映像信号期間の受信アンテナを次フレーム分から切り替えるようにする。   The antenna selection circuit 46 is supplied with the reception strength of the reception strength signals received by the reception antennas 11 a to 11 d via the reception circuit 33. The antenna selection circuit 46 compares the received signal strengths of the antennas 11a to 11d supplied from the receiver 33, and receives the picked-up image signal in the video signal period. The antenna 11i (i = a to d) having the highest strength signal is determined, and a control signal for switching the antenna switching circuit 45 to the antenna 11i is generated and output. Thereby, when the reception intensity of the reception intensity signal of the other antenna is higher than that of the antenna currently receiving the image signal, the reception antenna in the video signal period is switched from the next frame.

このように、カプセル型内視鏡3からの無線信号を受信するたびに、撮像画像信号、又は受信強度信号の受信強度を比較し、この比較結果を受けたアンテナ選択回路46によって受信強度が最大となるアンテナ11iを画像信号受信用のアンテナとを指定するようにしている。これにより、カプセル型内視鏡3が患者2の体内で移動しても、その移動位置において最も受信強度の高い信号を検出できるアンテナ11により取得した画像信号を受信することができる。また、体内でのカプセル型内視鏡3の移動速度は非常に遅い部分と早い部分に分かれるので、撮像動作1回につき常にアンテナ切替動作を1回行うとは限らず、高速撮像モードなどでは複数回の撮像動作に対してアンテナ切替動作を1回行うようにしてもよい。   In this way, each time a radio signal is received from the capsule endoscope 3, the received intensity of the captured image signal or the received intensity signal is compared, and the reception intensity is maximized by the antenna selection circuit 46 that receives the comparison result. The antenna 11i is designated as an image signal receiving antenna. Thereby, even if the capsule endoscope 3 moves in the body of the patient 2, it is possible to receive an image signal acquired by the antenna 11 that can detect a signal having the highest reception intensity at the moving position. In addition, since the moving speed of the capsule endoscope 3 in the body is divided into a very slow part and a fast part, the antenna switching operation is not always performed once per imaging operation, and there are a plurality of speeds in the high-speed imaging mode. The antenna switching operation may be performed once for each imaging operation.

なお、カプセル型内視鏡3は、患者2の体内を移動しているので、適宜の時間間隔で外部装置5から電波強度を検出した結果である検出結果信号を送り、その信号に基づいてカプセル型内視鏡3が送信する際のその出力を更新するようにしてもよい。このようにすれば、カプセル型内視鏡3が患者2の体内を移動した場合にも、適切な送信出力に設定でき、電池21のエネルギを無駄に消費すること等を防止でき、信号の送受信状態を適切な状態に維持できるようになる。   Since the capsule endoscope 3 is moving inside the patient 2, the capsule endoscope 3 sends a detection result signal that is a result of detecting the radio wave intensity from the external device 5 at an appropriate time interval, and the capsule endoscope 3 is based on the signal. You may make it update the output when the type | mold endoscope 3 transmits. In this way, even when the capsule endoscope 3 moves inside the patient 2, it is possible to set an appropriate transmission output, prevent wasteful consumption of the energy of the battery 21, and transmission / reception of signals. The state can be maintained in an appropriate state.

次に、前記複数の受信アンテナ11とカプセル型内視鏡3の位置関係を示す情報の取得方法について、図6を用いて説明する。なお、図6において、カプセル型内視鏡3を3次元座標X、Y、Zの原点に設定した場合を例に説明する。又、前記複数の受信アンテナ11a〜11dのうち、説明を簡単化するために、3つの受信アンテナ11a、11b、11cを用い、受信アンテナ11aと受信アンテナ11bとの間の距離をDab、受信アンテナ11bと受信アンテナ11cとの間の距離をDbc、受信アンテナ11aと受信アンテナ11cとの間の距離Dacとしている。さらに、この受信アンテナ11a〜11cとカプセル型内視鏡3の間は、所定の距離関係としている。   Next, a method for acquiring information indicating the positional relationship between the plurality of receiving antennas 11 and the capsule endoscope 3 will be described with reference to FIG. In FIG. 6, the case where the capsule endoscope 3 is set to the origin of the three-dimensional coordinates X, Y, and Z will be described as an example. In order to simplify the description among the plurality of receiving antennas 11a to 11d, three receiving antennas 11a, 11b, and 11c are used, and the distance between the receiving antenna 11a and the receiving antenna 11b is Dab. The distance between 11b and the receiving antenna 11c is Dbc, and the distance Dac between the receiving antenna 11a and the receiving antenna 11c. Further, the receiving antennas 11a to 11c and the capsule endoscope 3 have a predetermined distance relationship.

カプセル型内視鏡3の送信された一定の送信強度の無線信号は、各受信アンテナ11j(j=a、b、c)で受信した場合の受信強度は、カプセル型内視鏡3(カプセル型内視鏡3の送信アンテナ23)からの距離Li(i=a,b,c)の関数となる。具体的には電波減衰量が伴う距離Liに依存する。従って、カプセル型内視鏡3から送信された無線信号の受信アンテナ11jにより受信した受信強度からカプセル型内視鏡3と各受信アンテナ11jとの間の距離Liを算出する。この距離Liの算出には、前記カプセル型内視鏡3と受信アンテナ11jの間の距離による電波の減衰量などの関係データを事前に前記アンテナ選択回路46に設定する。又、その算出されたカプセル型内視鏡3と各受信アンテナ11jの位置関係を示す距離データは、前記メモリ47にカプセル型内視鏡3の位置情報として記憶させる。このメモリ47に記憶された撮像画像情報及びカプセル型内視鏡3の位置情報を基に、前記端末装置7による後述する画像情報処理方法において、内視鏡観察所見の位置設定に有用となる。   When the radio signal having a constant transmission intensity transmitted from the capsule endoscope 3 is received by each receiving antenna 11j (j = a, b, c), the reception intensity is as follows. This is a function of the distance Li (i = a, b, c) from the transmission antenna 23) of the endoscope 3. Specifically, it depends on the distance Li accompanied by the radio wave attenuation. Therefore, the distance Li between the capsule endoscope 3 and each receiving antenna 11j is calculated from the reception intensity received by the receiving antenna 11j of the radio signal transmitted from the capsule endoscope 3. In calculating the distance Li, relational data such as radio wave attenuation due to the distance between the capsule endoscope 3 and the receiving antenna 11j is set in the antenna selection circuit 46 in advance. The calculated distance data indicating the positional relationship between the capsule endoscope 3 and each receiving antenna 11j is stored in the memory 47 as position information of the capsule endoscope 3. Based on the captured image information stored in the memory 47 and the position information of the capsule endoscope 3, it is useful for setting the position of the endoscopic observation findings in the image information processing method described later by the terminal device 7.

次に、本実施形態の画像処理装置における画像処理動作について説明を行う。   Next, an image processing operation in the image processing apparatus of this embodiment will be described.

なお、本実施形態においては、カプセル型内視鏡3により撮像された体腔内の像の画像は、x軸方向のドット数ISX×y軸方向のドット数ISY(1≦ISX、1≦ISYを満たす値であり、例えば、ISX=300、ISY=300)、R(赤)G(緑)B(青)の3プレーンからなり、各プレーンにおける各画素は、濃度値であるRGB値として各々8bit、すなわち、0から255の値をとるものとする。また、本発明の実施形態においては、時系列的に連続して撮像されたN枚の画像(1≦N)におけるi番目の画像をIi(1≦i≦N)と示すものとする。さらに、本実施形態においては、画像Iiの各プレーンにおけるv番目の画素(1≦v≦ISX×ISY)をそれぞれriv、giv及びbivと示すものとする。   In the present embodiment, the image of the image in the body cavity imaged by the capsule endoscope 3 is the number of dots in the x-axis direction ISX × the number of dots in the y-axis direction ISY (1 ≦ ISX, 1 ≦ ISY). It is a value that satisfies, for example, consists of three planes of ISX = 300, ISY = 300), R (red), G (green), and B (blue). That is, assume a value from 0 to 255. In the embodiment of the present invention, the i-th image in N images (1 ≦ N) continuously captured in time series is denoted as Ii (1 ≦ i ≦ N). Furthermore, in the present embodiment, the vth pixel (1 ≦ v ≦ ISX × ISY) in each plane of the image Ii is denoted as riv, giv, and biv, respectively.

また、本実施形態の画像処理装置における画像処理動作は、前述した端末装置7の端末本体9が有する制御部9aにおける処理として行われるようになっている。   In addition, the image processing operation in the image processing apparatus of the present embodiment is performed as a process in the control unit 9a included in the terminal body 9 of the terminal device 7 described above.

まず、制御部9aは、端末装置7において予め設定されたサンプリング値k(k=1,2,…)に基づき、カプセル型内視鏡3により時系列的に連続して撮像されたN枚の画像において、k番目毎の画像Ik、I2k、…、Ink(nkは1≦nk≦Nを満たす整数であるとする)のサンプリングを行う(図11のステップS1)。例えば、カプセル型内視鏡3が毎秒2枚の画像を撮像し、かつ、サンプリング値kが20として設定されている場合、制御部9aは、カプセル型内視鏡3により撮像されたN枚の画像において、撮像開始時間から10秒経過毎の画像を1枚ずつサンプリングする。   First, the control unit 9a uses the capsule endoscope 3 to capture N sheets of images that are continuously captured in time series based on the sampling values k (k = 1, 2,...) Preset in the terminal device 7. In the image, sampling is performed for every k-th image Ik, I2k,..., Ink (where nk is an integer satisfying 1 ≦ nk ≦ N) (step S1 in FIG. 11). For example, when the capsule endoscope 3 captures two images per second and the sampling value k is set to 20, the control unit 9a uses the N images captured by the capsule endoscope 3. In the image, the image is sampled one by one every 10 seconds from the imaging start time.

そして、制御部9aは、サンプリングした(N/k)枚(N/kは、端数を切り捨てた整数であるとする)の画像Inkをサンプル画像群とした後、該サンプル画像群の画像Ink各々に対し、以下に記す処理を行う。なお、前記サンプル画像群は、(N/k)枚の画像Inkに加え、1番目の画像I1を含む(n+1)枚の画像からなるものであっても良い。   Then, the control unit 9a uses the sampled image Ink of (N / k) (N / k is an integer obtained by rounding down) as a sample image group, and then each image Ink of the sample image group. In contrast, the following processing is performed. The sample image group may include (n + 1) images including the first image I1 in addition to (N / k) images Ink.

制御部9aは、入力された画像Inkを構成するRnk、Gnk及びBnkの各プレーンに対し、前処理として、例えば、メディアンフィルタリングによるノイズ除去及び逆γ補正を行うと共に、ハレーション画素及び暗部画素を以降の処理対象から除外するため、閾値に基づく処理により検出しておく(図11のステップS2)。そして、前記閾値に基づく処理は、例えば、rnkv、gnkv及びbnkvの濃度値の全てが10以下の値であれば暗部画素、また、rnkv、gnkv及びbnkvの濃度値の全てが230以上の値であればハレーション画素とするような処理として行われる。   The control unit 9a performs, for example, noise removal and inverse γ correction by median filtering on the Rnk, Gnk, and Bnk planes that make up the input image Ink. In order to exclude them from the processing target, detection is performed by processing based on a threshold value (step S2 in FIG. 11). The processing based on the threshold value is, for example, a dark pixel when the density values of rnkv, gnkv, and bnkv are all 10 or less, and all the density values of rnkv, gnkv, and bnkv are 230 or more. If there is a halation pixel, the process is performed.

制御部9aは、入力された画像Inkを、例えば、8×8からなる複数の矩形領域に分割する(図11のステップS3)。なお、以降の説明においては、制御部9aにおいて分割された矩形領域のうち、一の領域をHp(pは1以上の整数)と示すものとする。   The control unit 9a divides the input image Ink into, for example, a plurality of 8 × 8 rectangular areas (step S3 in FIG. 11). In the following description, one of the rectangular areas divided by the control unit 9a is indicated as Hp (p is an integer of 1 or more).

その後、制御部9aは、画像Inkの一の領域Hp各々における各画素のRGB値の比に基づく値である、gnkv/rnkvの平均値(以降、μgpと示す)及びbnkv/gnkvの平均値(以降、μbpと示す)からなる、画像の色度を示す2つの特徴量を算出する(図11のステップS4)。   Thereafter, the control unit 9a determines the average value of gnkv / rnkv (hereinafter referred to as μgp) and the average value of bnkv / gnkv (hereinafter referred to as μgp), which are values based on the ratio of the RGB values of each pixel in each region Hp of the image Ink. Hereinafter, two feature amounts indicating the chromaticity of the image, which are composed of μbp), are calculated (step S4 in FIG. 11).

さらに、制御部9aは、領域Hp各々において得られた特徴量μgp及びμbpを各々離散化するとともに、離散化した特徴量μgp及びμbpの発生頻度に基づく、特徴空間におけるヒストグラムを作成する(図11のステップS5)。具体的には、制御部9aは、特徴量μgp及びμbpの値を、例えば、1以上の値を全て1としつつ、各々0から1までの値をとるものとして扱うとともに、さらに、0から1までの値としての特徴量μgp及びμbpを80倍した値を整数値に丸めることにより、離散化及びヒストグラムの作成を行う。   Furthermore, the control unit 9a discretizes the feature quantities μgp and μbp obtained in each region Hp, and creates a histogram in the feature space based on the frequency of occurrence of the discretized feature quantities μgp and μbp (FIG. 11). Step S5). Specifically, the control unit 9a treats the values of the feature values μgp and μbp as, for example, all values of 1 or more as 1 while taking values from 0 to 1, respectively, and further from 0 to 1 Discretization and creation of a histogram are performed by rounding values obtained by multiplying the feature values μgp and μbp by 80 times to integer values.

制御部9aは、離散化した特徴量μgp及びμbp各々に対し、例えば、所定のサイズの平均値フィルタを適用することにより、ヒストグラムを平滑化する(図11のステップS6)。なお、制御部9aが以上までの処理を行うことにより作成されるヒストグラムは、例えば、図12に示されるようなものとなる。   The control unit 9a smoothes the histogram by applying, for example, an average value filter of a predetermined size to each of the discretized feature quantities μgp and μbp (step S6 in FIG. 11). Note that the histogram created when the control unit 9a performs the above processing is as shown in FIG. 12, for example.

次に、制御部9aは、サンプル画像群としての(N/k)枚の画像全てに対して前述した処理を行うことにより作成したヒストグラムにおいて、発生頻度が極大となる(μgp,μbp)の要素、すなわち、ピーク点を検出する(図11のステップS7)。具体的には、制御部9aは、作成したヒストグラムにおいて、一の要素及び該一の要素の8近傍の要素からなる9個の要素を抽出した後、抽出した該9個の要素のうち、発生頻度が最大となる要素をピーク点として検出する。   Next, in the histogram created by performing the above-described processing on all the (N / k) images as the sample image group, the control unit 9a has an element with the maximum occurrence frequency (μgp, μbp). That is, the peak point is detected (step S7 in FIG. 11). Specifically, the control unit 9a extracts nine elements including one element and elements in the vicinity of the one element from the generated histogram, and then generates an occurrence among the extracted nine elements. The element with the highest frequency is detected as a peak point.

制御部9aは、作成したヒストグラムにおいて、(μgp,μbp)=(0,0)以外の各要素が、検出した各ピーク点のうち、いずれのピーク点に向かうものであるかを、gradientベクトルに基づく解析手法としての、例えば、Valley−Seeking法を用いることにより特定する(図11のステップS8)。そして、制御部9aは、同一のピーク点に向かうgradientベクトルを有する要素を同一クラスタに属する要素とする処理である、ヒストグラム内の各要素に対する教師なしクラスタリング処理を行う(図11のステップS9)。なお、制御部9aが教師なしクラスタリング処理を行うことにより作成される各クラスタは、例えば、図13に示されるようなものとなる。   In the created histogram, the control unit 9a uses the gradient vector to indicate which of the detected peak points each element other than (μgp, μbp) = (0, 0) is directed to. For example, a Valley-Seeking method is used as an analysis method based on the analysis method (step S8 in FIG. 11). Then, the control unit 9a performs unsupervised clustering processing for each element in the histogram, which is processing for setting an element having a gradient vector toward the same peak point as an element belonging to the same cluster (step S9 in FIG. 11). Each cluster created when the control unit 9a performs the unsupervised clustering process is as shown in FIG. 13, for example.

なお、制御部9aは、前述した教師なしクラスタリング処理において、2つ以上のクラスタの境界が接していることを検出した場合、以降に記すような、該2つ以上のクラスタの統合または分離判定の処理をさらに行うものであってもよい。   When the controller 9a detects that two or more cluster boundaries are in contact with each other in the unsupervised clustering process described above, the controller 9a performs integration or separation determination of the two or more clusters as described below. Further processing may be performed.

その場合、制御部9aは、作成した各クラスタのうち、8近傍の要素を含む9個の要素において、2以上のクラスタを含む要素を抽出することにより、すなわち、2以上のクラスタの境界に属している要素を抽出することにより、該2以上のクラスタが接していると判定する(図15のステップS21)。さらに、制御部9aは、処理対象となる前記2以上のクラスタの境界に属している前記各要素のうち、発生頻度が最小となる一の要素を抽出し、該一の要素における発生頻度をμminとする(図15のステップS22)。また、制御部9aは、処理対象となる前記2以上のクラスタにおける各ピーク点のうち、発生頻度が最大となる一のピーク点を抽出し、該一のピーク点における発生頻度をμmaxとする(図15のステップS23)。   In that case, the control unit 9a extracts, among the created clusters, nine elements including eight neighboring elements, by extracting elements including two or more clusters, that is, belongs to the boundary of two or more clusters. It is determined that the two or more clusters are in contact with each other (step S21 in FIG. 15). Further, the control unit 9a extracts one element having the lowest occurrence frequency from the elements belonging to the boundary between the two or more clusters to be processed, and sets the occurrence frequency in the one element to μmin. (Step S22 in FIG. 15). Further, the control unit 9a extracts one peak point having the highest occurrence frequency from each peak point in the two or more clusters to be processed, and sets the occurrence frequency at the one peak point to μmax ( Step S23 in FIG. 15).

制御部9aは、μmin及びμmaxを抽出した後、μmin/μmaxの値と、閾値μthrとの比較を行う。そして、制御部9aは、μmin/μmaxの値が閾値μthrよりも大きいことを検出した場合(図15のステップS24)、処理対象となる前記2以上のクラスタを各々別クラスタと判定し、該2以上のクラスタを分離したままとする(図15のステップS25)。また、制御部9aは、μmin/μmaxの値が閾値μthr以下であることを検出した場合(図15のステップS24)、処理対象となる前記2以上のクラスタが同一クラスタに属すると判定するとともに、該2以上のクラスタを統合し、発生頻度μmaxのピーク点を新たなピーク点とする、統合後のクラスタを作成する(図15のステップS26)。なお、前述した閾値μthrは、本実施形態においては、例えば、0.1であるとする。   After extracting μmin and μmax, the control unit 9a compares the value of μmin / μmax with the threshold value μthr. When the control unit 9a detects that the value of μmin / μmax is larger than the threshold value μthr (step S24 in FIG. 15), the control unit 9a determines that the two or more clusters to be processed are separate clusters, and the 2 The above clusters remain separated (step S25 in FIG. 15). When the control unit 9a detects that the value of μmin / μmax is equal to or less than the threshold value μthr (step S24 in FIG. 15), the control unit 9a determines that the two or more clusters to be processed belong to the same cluster, The two or more clusters are integrated, and an integrated cluster is created in which the peak point of the occurrence frequency μmax is a new peak point (step S26 in FIG. 15). Note that the threshold value μthr described above is, for example, 0.1 in the present embodiment.

制御部9aは、前述した教師なしクラスタリングの処理(図11のステップS9に示す処理)を行った後、生成した各クラスタについて、該各クラスタのクラスタ情報を取得する(図11のステップS10)。なお、制御部9aが取得するクラスタ情報は、例えば、クラスタ番号、該各クラスタのピーク点となる要素、該各クラスタ各々の特徴空間における面積及び体積、及び該各クラスタにおける特徴量μgp及びμbpの平均値ベクトルといった情報である。   After performing the above-described unsupervised clustering process (the process shown in step S9 in FIG. 11), the control unit 9a acquires the cluster information of each generated cluster (step S10 in FIG. 11). The cluster information acquired by the control unit 9a includes, for example, a cluster number, an element that is a peak point of each cluster, an area and a volume in each feature space of each cluster, and feature quantities μgp and μbp in each cluster. It is information such as an average value vector.

その後、制御部9aは、取得したクラスタ情報に基づき、例えば、図14に示すように、特徴空間における面積または体積が所定の閾値未満であるクラスタを削除する(図11のステップS11)。   Thereafter, based on the acquired cluster information, the control unit 9a deletes clusters whose area or volume in the feature space is less than a predetermined threshold, for example, as shown in FIG. 14 (step S11 in FIG. 11).

さらに、制御部9aは、特徴空間に残った各クラスタにおける特徴量μgp及びμbpの平均値ベクトル及び教師データセットから作成された、例えば、線形判別関数またはベイズの定理に基づく関数等の識別器を用いることにより、特徴空間に残った各クラスタがいずれのクラスに属するかを判定する(図11のステップS12)。なお、本実施形態においては、前記クラスは、胃粘膜、絨毛、便及び泡からなる4つのクラスであるとする。また、本実施形態においては、前記教師データセットは、前記4つのクラスの教師データを構成する複数の画像であるとする。   Further, the control unit 9a creates a discriminator such as a function based on a linear discriminant function or a Bayes' theorem, for example, created from the mean value vector of the feature values μgp and μbp in each cluster remaining in the feature space and the teacher data set. By using it, it is determined to which class each cluster remaining in the feature space belongs (step S12 in FIG. 11). In the present embodiment, the classes are assumed to be four classes consisting of gastric mucosa, villi, stool and foam. In the present embodiment, it is assumed that the teacher data set is a plurality of images constituting the four classes of teacher data.

そして、制御部9aは、特徴空間に残った各クラスタを胃粘膜、絨毛、便及び泡の4つのクラスに分類するとともに、該4つのクラスに分類不可能なクラスタを不明クラスとして分類する(図11のステップS13)。   Then, the control unit 9a classifies each cluster remaining in the feature space into four classes of gastric mucosa, villi, stool, and foam, and classifies clusters that cannot be classified into the four classes as unknown classes (FIG. 11 step S13).

ここで、図11のステップS12及びステップS13に示す処理の具体例を以下に詳述する。なお、制御部9aは、特徴空間に残ったクラスタ全てに対し、以下に述べる処理を各々行うものであるとする。   Here, the specific example of the process shown to step S12 of FIG. 11 and step S13 is explained in full detail below. It is assumed that the control unit 9a performs the processing described below for all the clusters remaining in the feature space.

前述した4つのクラスの識別及び分類において、一のクラスωa(a=1、2、…、C、Cはクラス数を示す)が発生する事前確率をP(ωa)とし、特徴空間に残った各クラスタにおける特徴量μgp及びμbpから決定された特徴ベクトルをxとし、全クラスからの特徴ベクトルの発生確率に基づく確率密度関数をp()とし、一のクラスωaからの特徴ベクトルの発生確率に基づく状態依存確率密度(多変量正規確率密度)関数をp(|ωa)とすると、発生した特徴ベクトルが一のクラスωaに属する事後確率P(ωa|)を算出するための計算式は、下記数式(1)として示される。 In the identification and classification of the four classes described above, the prior probability that one class ωa (a = 1, 2,..., C, C indicates the number of classes) occurs is P (ωa), and remains in the feature space. The feature vector determined from the feature quantities μgp and μbp in each cluster is x , the probability density function based on the occurrence probability of the feature vector x from all classes is p ( x ), and the feature vector x from one class ωa When the state-dependent probability density (multivariate normal probability density) function based on the occurrence probability is p ( x | ωa), the posterior probability P (ωa | x ) where the generated feature vector x belongs to one class ωa is calculated. Is calculated as the following formula (1).

Figure 0004472631
・・・(1)

なお、状態依存確率密度関数p(|ωa)及び確率密度関数p()は、下記数式(2)及び数式(3)として示される。
Figure 0004472631
... (1)

Note that the state-dependent probability density function p ( x | ωa) and the probability density function p ( x ) are expressed as the following formula (2) and formula (3).

Figure 0004472631
・・・(2)
Figure 0004472631
・・・(3)

なお、上記数式(2)及び数式(3)において、dはの特徴量の個数と同数である次元数を示し、μa及びΣaはクラスωaにおける特徴ベクトルの平均ベクトル及び一のクラスωaにおける分散共分散行列を示すものとする。また、(μaは(μa)の転置行列を示し、|Σa|はΣaの行列式を示し、Σa−1はΣaの逆行列を示すものとする。さらに、説明の簡単のため、事前確率P(ωa)は、全クラスにおいて等しい値をとると仮定し、また、確率密度関数p()は、上記数式(3)により全クラス共通の関数として表されるものとする。
Figure 0004472631
... (2)
Figure 0004472631
... (3)

In Equations (2) and (3), d indicates the number of dimensions that is the same as the number of feature quantities of x , μa and Σa are the average vector of feature vectors x in class ωa and in one class ωa. Let us denote the variance-covariance matrix. Also, ( xμa ) t represents a transposed matrix of ( xμa ), | Σa | represents a determinant of Σa, and Σa− 1 represents an inverse matrix of Σa. Further, for simplicity of explanation, it is assumed that the prior probability P (ωa) takes an equal value in all classes, and the probability density function p ( x ) is a function common to all classes according to the above equation (3). Shall be represented.

前述したようなベイズの定理に基づく統計的識別器と共に、分類基準として用いられる平均ベクトルμa及び分散共分散行列Σaは、一のクラスωaにおける母数を構成する要素であり、1番目の画像I1が端末装置7に入力される以前の段階において、胃粘膜、絨毛、便及び泡からなる4つのクラスの教師データを構成する複数の画像に基づき、該画像の一の領域各々において都度決定される特徴ベクトルから、クラス毎に予め算出された後、初期値として端末装置7に各々記録される。なお、このとき、制御部9aは、各クラスの教師データにおける特徴ベクトルに、画像Iiにおける各クラスの特徴ベクトルを加えるようにして母数を推定しても良い。 Along with the statistical discriminator based on the Bayes' theorem as described above, the average vector μa and the variance-covariance matrix Σa used as the classification criteria are elements constituting a parameter in one class ωa, and are the first image I1. Is input to the terminal device 7 based on a plurality of images constituting four classes of teacher data consisting of gastric mucosa, villi, feces, and bubbles, each time determined in each region of the image After being calculated in advance for each class from the feature vector x , it is recorded in the terminal device 7 as an initial value. At this time, the control unit 9a may estimate the parameter by adding the feature vector of each class in the image Ii to the feature vector in the teacher data of each class.

なお、平均ベクトルμaは、特徴ベクトルが有する2つの特徴量各々の平均値からなり、かつ、特徴ベクトルと同一の次元数を有するベクトルである。すなわち、特徴ベクトル=(μgp,μbp)として表される場合、平均ベクトルμaは、特徴ベクトルが有する2つの特徴量各々の平均値である、μ(μgp)及びμ(μbp)を用いて、μa=(μ(μgp),μ(μbp))として表されるものとする。また、分散共分散行列Σaは、一のクラスωaに属する特徴ベクトルの分布のバラツキ及び広がり具合を示す行列であり、特徴ベクトルの特徴量の個数と同数である次元数dに対し、d×d行列として表されるものとする。 The average vector μa is comprised average of two features, each having the feature vector x, and a vector having the same number of dimensions as the feature vector x. That is, when the feature vector x is expressed as x = (μgp, μbp), the average vector μa is an average value of each of the two feature amounts of the feature vector x , μ (μgp) and μ (μbp). And is expressed as μa = (μ (μgp), μ (μbp)). The variance-covariance matrix Σa is a matrix indicating the distribution and spread of the distribution of the feature vector x belonging to one class ωa. For the dimension number d that is the same as the number of feature quantities of the feature vector x , d It shall be expressed as a xd matrix.

制御部9aは、発生した特徴ベクトルがクラスω1に属する事後確率P(ω1|)と、発生した特徴ベクトルがクラスω2に属する事後確率P(ω2|)と、発生した特徴ベクトルがクラスω3に属する事後確率P(ω3|)と、発生した特徴ベクトルがクラスω4に属する事後確率P(ω4|)とを、ベイズの定理に基づいた上記数式(1)から数式(3)を用いて各々算出する。そして、制御部9aは、これら4つの事後確率のうち、最大の事後確率P1(ωa|)を与えるクラスωaに特徴ベクトルが属するものとして識別を行い、該識別結果に基づいて特徴ベクトルが発生した領域である一のクラスタをクラスωaに分類すると共に、最大の事後確率P1(ωa|)を与える確率密度関数p1(|ωa)の値を算出する。 Control unit 9a, the posterior probability P that belong to the generated feature vector x Class .omega.1 | a (.omega.1 x), the posterior probability P that belong to the generated feature vector x Class .omega.2 | a (.omega.2 x), generated feature vector x posterior probability P that belong to but class [omega] 3 | a ([omega] 3 x), the posterior probability P generated feature vector x belongs to a class .omega.4 | formula and (.omega.4 x), from the equation (1) based on Bayes' Theorem ( 3) to calculate each. Then, the control unit 9a identifies that the feature vector x belongs to the class ωa that gives the maximum posterior probability P1 (ωa | x ) among these four posterior probabilities, and based on the identification result, the feature vector x Is classified into class ωa, and the value of probability density function p1 ( x | ωa) giving the maximum posterior probability P1 (ωa | x ) is calculated.

そして、制御部9aは、以上までの処理において、クラスωaに分類された一のクラスタの分類結果が正確なものであるか否かを判定するため、平均値からの距離に基づく処理、すなわち、最大の事後確率P1(ωa|)を与える確率密度関数p1(|ωa)の値に対する閾値に基づく処理をさらに行う。 Then, in order to determine whether or not the classification result of one cluster classified into the class ωa is accurate in the above processing, the control unit 9a performs processing based on the distance from the average value, that is, Further processing based on a threshold is performed on the value of the probability density function p1 ( x | ωa) that gives the maximum posterior probability P1 (ωa | x ).

具体的には、まず、制御部9aは、平均ベクトルμaが有する2つの特徴量各々の平均値のうち、例えば、特徴量μgpの平均値μ(μgp)に対し、特徴量μgpの標準偏差σ(μgp)と、所定の定数としての乗算係数αとの積を加えた値を含む、閾値ベクトルxb1を決定する。なお、このような閾値ベクトルxb1は、例えば、下記数式(4)として示されるものであり、また、本実施形態においては、乗算係数αの値は1.5であるとする。 Specifically, the control unit 9a first determines, for example, the standard deviation σ of the feature value μgp with respect to the average value μ (μgp) of the feature value μgp among the average values of the two feature values of the average vector μa. A threshold vector xb1 including a value obtained by adding a product of (μgp) and a multiplication coefficient α as a predetermined constant is determined. Such a threshold vector xb1 is represented, for example, by the following mathematical formula (4), and in the present embodiment, the value of the multiplication coefficient α is 1.5.


xb1=(μ(μgp)+α×σ(μgp),μbp) ・・・(4)

上記数式(4)により閾値ベクトルxb1が決定されると、制御部9aは、閾値ベクトルxb1を上記数式(1)、数式(2)及び数式(3)のとして代入し、一のクラスタが分類されたクラスωaの閾値としての、確率密度関数p(xb1|ωa)の値を算出する。

xb1 = (μ (μgp) + α × σ (μgp), μbp) (4)

When the threshold vector xb1 by the equation (4) is determined, the control unit 9a, the threshold vector xb1 above equation (1), is substituted as x in Equation (2) and Equation (3), classified one cluster The value of the probability density function p ( xb1 | ωa) is calculated as the threshold value of the determined class ωa.

そして、制御部9aは、p1(|ωa)の値がp(xb1|ωa)の値より大きいことを検出すると、前述した処理において、一のクラスタをクラスωaに分類した分類結果が正確であると判定する。 When the control unit 9a detects that the value of p1 ( x | ωa) is larger than the value of p ( xb1 | ωa), the classification result obtained by classifying one cluster into the class ωa in the above-described process is accurate. Judge that there is.

また、制御部9aは、p1(|ωa)の値がp(xb1|ωa)の値以下であることを検出すると、前述した処理において、一のクラスタをクラスωaに分類した分類結果が不正確であると判定し、一のクラスタを不明クラスに分類する。 Further, when the control unit 9a detects that the value of p1 ( x | ωa) is equal to or less than the value of p ( xb1 | ωa), the classification result obtained by classifying one cluster into the class ωa is not valid in the above-described processing. Judged to be accurate and classify one cluster into an unknown class.

さらに、制御部9aは、前述したクラス分類を行った後、サンプル画像群としての(N/k)枚の画像Inkから、撮像されたタイミングに基づく所定の間隔t毎のサブセットを生成する(図11のステップS14)。例えば、撮像開始時間から10秒経過毎の画像が1枚ずつサンプリングされ(k=20と設定され)、かつ、間隔tが180として設定されている場合、制御部9aは、サンプル画像群としての(N/k)枚の画像Inkにおいて、撮像開始時間から1800秒経過毎までに含まれる画像を1組のサブセットとする。   Further, after performing the above-described class classification, the control unit 9a generates a subset for each predetermined interval t based on the captured timing from (N / k) images Ink as a sample image group (FIG. 11 step S14). For example, when images every 10 seconds from the imaging start time are sampled one by one (k = 20 is set) and the interval t is set to 180, the control unit 9a sets the sample image group as In (N / k) images Ink, images included every 1800 seconds from the imaging start time are set as a subset.

その後、制御部9aは、各サブセットに含まれる画像Ink各々において、特徴空間において発生したクラスの種別の分布を示すクラス分布情報と、該特徴空間において発生したクラスタに含まれる特徴量μgp及びμbpの、クラス毎の分布状態を示す特徴量分布情報とを取得する(図11のステップS15)。そして、制御部9aは、前記特徴量分布情報に基づき、画像を分類する際の分類基準としての平均値ベクトル及び分散共分散行列を算出した後、該平均値ベクトル及び該分散共分散行列を用いた、サブセット毎の識別器を構成する(図11のステップS16)。さらに、制御部9aは、前述した処理により、サブセット毎に構成した識別器を用いつつ、N枚の画像各々に対する分類を行う(図11のステップS17)。このような処理を行うことにより、制御部9aは、前述した統計的識別器において、各クラスの分布を規定するための多変量正規確率密度関数の母数を、サブセット毎に最適に設定することができる。   Thereafter, in each image Ink included in each subset, the control unit 9a includes class distribution information indicating the distribution of class types generated in the feature space, and feature amounts μgp and μbp included in the clusters generated in the feature space. The feature amount distribution information indicating the distribution state for each class is acquired (step S15 in FIG. 11). Then, the control unit 9a calculates an average value vector and a variance covariance matrix as classification criteria for classifying images based on the feature amount distribution information, and then uses the average value vector and the variance covariance matrix. The subset classifier is configured (step S16 in FIG. 11). Further, the control unit 9a performs classification for each of the N images by using the classifier configured for each subset by the above-described processing (step S17 in FIG. 11). By performing such processing, the control unit 9a optimally sets the parameter of the multivariate normal probability density function for defining the distribution of each class for each subset in the statistical classifier described above. Can do.

制御部9aは、以上に述べた、図11のステップS1から図11のステップS17までに示す処理を行うことにより、カプセル型内視鏡3により撮像された画像の分類を高精度かつ高速に行うことができる。   The control unit 9a performs the above-described processing from step S1 in FIG. 11 to step S17 in FIG. 11 to classify images captured by the capsule endoscope 3 with high accuracy and high speed. be able to.

なお、制御部9aは、取得した特徴量分布情報に基づき、一のサブセットにおいて発生しなかったクラスについては、平均値ベクトル及び分散共分散行列を算出しないものであっても良い。   Note that the control unit 9a may not calculate the average value vector and the variance-covariance matrix for classes that have not occurred in one subset based on the acquired feature amount distribution information.

また、以上に述べた、制御部9aが行う処理は、N枚の画像が撮像された後に行われるものに限るものではなく、例えば、間隔tに基づく、一のサブセットの画像が撮像された直後毎に随時行われるものであっても良い。   Further, the processing performed by the control unit 9a as described above is not limited to that performed after N images have been captured. For example, immediately after a subset image based on the interval t is captured. It may be performed at any time.

さらに、制御部9aは、さらに高精度な処理結果を得るために、図11のステップS15に示す処理において取得した特徴量分布情報に対し、例えば、1次元において均等な重み付けがなされた所定のサイズの平滑化フィルタを用いた処理である、平滑化処理を行うものであっても良い。そして、制御部9aは、このような平滑化処理を行うことにより、特徴量分布情報のうち、特徴量μgpまたはμbpの変動が顕著である部分、または、特徴量μgpまたはμbpの変動が極大となる部分から、撮像部位及び病変部位を特定することができる。   Further, the control unit 9a obtains, for example, a predetermined size in which the feature amount distribution information acquired in the process shown in step S15 in FIG. A smoothing process, which is a process using the smoothing filter, may be performed. Then, the control unit 9a performs such a smoothing process, so that the portion of the feature amount distribution information in which the variation of the feature amount μgp or μbp is significant, or the variation of the feature amount μgp or μbp is maximized. From this portion, it is possible to specify the imaging site and the lesion site.

前述した、平滑化処理の処理結果に基づき、制御部9aが撮像部位及び病変部位を特定するための方法の一例を以降に記す。   An example of a method for the control unit 9a to specify the imaging site and the lesion site based on the above-described smoothing processing result will be described below.

例えば、制御部9aが図11のステップS15に示す処理において取得した特徴量分布情報に基づき、胃粘膜クラス及び絨毛クラスに分類された領域が有する特徴量μgpのサブセット毎の時間方向における変化を表した場合、該変化は図16のようなグラフとして示される。   For example, based on the feature amount distribution information acquired by the control unit 9a in the process shown in step S15 of FIG. 11, the change in the time direction for each subset of the feature amount μgp included in the region classified into the gastric mucosa class and the villus class is expressed. In this case, the change is shown as a graph as shown in FIG.

本来、生体粘膜等の色調は、同一の撮像部位を撮像し続けた場合、時間方向における頻繁な変動を伴うものではない。そのため、時間的に近接した画像から得られる特徴量μgp(または特徴量μbp)の値は、類似した値をとると考えられる。   Originally, the color tone of the biological mucous membrane or the like does not frequently change in the time direction when the same imaging region is continuously imaged. Therefore, it is considered that the value of the feature value μgp (or feature value μbp) obtained from temporally close images takes a similar value.

そして、前述したような観点に基づいて予め設定された所定のサイズのフィルタとして、例えば、サイズ20の1次元均等重み付けフィルタを用いた、図16のようなグラフとして示される特徴量μgpに対する時間方向への平滑化処理を制御部9aが行うことにより、特徴量μgpのサブセット毎の時間方向における変化は、図17のようなグラフとして示されるものになる。なお、図16及び図17に示すグラフは、特徴量μgpのサブセット毎の時間方向における変化を表したものであるが、特徴量μbpにおいても、サブセット毎の時間方向における変化を示す、略同様のグラフを描くことが可能である。   Then, as a filter of a predetermined size set in advance based on the above-described viewpoint, for example, a time direction with respect to the feature amount μgp shown as a graph as shown in FIG. 16 using a one-dimensional equal weighting filter of size 20 When the control unit 9a performs the smoothing process, the change in the time direction for each subset of the feature amount μgp is shown as a graph as shown in FIG. The graphs shown in FIG. 16 and FIG. 17 represent the change in the time direction for each subset of the feature value μgp, but the feature value μbp also shows the change in the time direction for each subset. It is possible to draw a graph.

また、制御部9aは、平滑化処理を行った後においてもなお特徴量μgpまたは特徴量μbpの値が顕著に変動する時間帯が存在することを検知した場合、該時間帯において、例えば、撮像部位の変化が確認されたと判定する。あるいは、制御部9aは、平滑化処理を行った後においてもなお特徴量μgpまたは特徴量μbpの値が顕著に変動する時間帯が存在することを検知した場合、該時間帯において、例えば、便、胆汁の泡または病変部位等の存在が確認されたと判定する。   In addition, when the control unit 9a detects that there is a time zone in which the value of the feature value μgp or the feature value μbp varies significantly even after the smoothing process is performed, in the time zone, for example, imaging It is determined that a change in the site has been confirmed. Alternatively, when the control unit 9a detects that there is a time zone in which the value of the feature value μgp or the feature value μbp varies significantly even after performing the smoothing process, It is determined that the presence of bile bubbles or lesions has been confirmed.

例えば、カプセル型内視鏡3が胃から小腸(十二指腸)へ移動する際には、胆汁等の消化液が分泌されることにより、黄色がかった被写体の像が撮像される。そのため、制御部9aは、胃粘膜クラス及び絨毛クラスにおける特徴量μbpの値が顕著な減少を示す時間帯の存在を検知した場合、該時間帯において、カプセル型内視鏡3の撮像部位が胃から小腸へ変化したということを特定することができる。   For example, when the capsule endoscope 3 moves from the stomach to the small intestine (duodenum), digestive fluid such as bile is secreted, so that a yellowish subject image is captured. Therefore, when the control unit 9a detects the presence of a time zone in which the value of the characteristic amount μbp in the gastric mucosa class and the villi class shows a significant decrease, the imaging site of the capsule endoscope 3 is in the stomach in the time zone. It is possible to identify that it has changed from small to large intestine.

また、例えば、カプセル型内視鏡3が、病変部位の1つとしての出血部位を通過する際には、該出血部位における血液の存在により、赤色がかった被写体の像が撮像される。そのため、制御部9aは、同一クラスにおいて特徴量μgpの値が顕著な減少を示す時間帯の存在を検知した場合、該時間帯において、カプセル型内視鏡3が病変部位を撮像したということを特定することができる。   In addition, for example, when the capsule endoscope 3 passes through a bleeding site as one of the lesion sites, a reddish subject image is captured due to the presence of blood in the bleeding site. Therefore, when the control unit 9a detects the presence of a time zone in which the value of the feature value μgp shows a significant decrease in the same class, it indicates that the capsule endoscope 3 has imaged the lesion site in the time zone. Can be identified.

そして、制御部9aは、以上に述べた、図11のステップS1から図11のステップS17までに示す一連の処理に加え、さらに、以降に記す処理を行うものであっても良い。なお、以降に記す処理において、制御部9aが取得するクラス分布情報には、胃粘膜、絨毛、便、泡及び不明の、5つのクラスの情報が含まれているものであるとする。また、前述したクラス分布情報は、前述した5つのクラスの情報を含むものに限るものではなく、例えば、胃粘膜及び絨毛クラスが生体粘膜クラスとして同一のクラスとして扱われるとともに、便、泡及び不明クラスが非生体粘膜クラスとして同一のクラスとして扱われるような情報を含むものであっても良いし、白色調の生体粘膜と黄色調の生体粘膜とが同一のクラスとして扱われている情報を含むものであっても良い。   And the control part 9a may perform the process described further in addition to the series of processes shown from step S1 of FIG. 11 to step S17 of FIG. 11 mentioned above. In the processing described below, it is assumed that the class distribution information acquired by the control unit 9a includes five classes of information including gastric mucosa, villi, feces, bubbles, and unknown. The class distribution information described above is not limited to the information including the five classes of information described above. For example, the gastric mucosa and villus classes are treated as the same class as the biological mucosa class, and stool, foam, and unknown. The class may contain information that can be treated as the same class as the non-biological mucosa class, or it may contain information in which the white-toned biological mucosa and the yellow-toned biological mucosa are treated as the same class It may be a thing.

制御部9aは、前述した、図11のステップS17の処理を行った後、入力されたi番目の画像Iiを、例えば、8×8の複数の矩形領域に分割する(図18のステップS31)。   After performing the process of step S17 of FIG. 11 described above, the control unit 9a divides the input i-th image Ii into, for example, a plurality of 8 × 8 rectangular areas (step S31 of FIG. 18). .

ここで、前述した、図11のステップS17までの処理において生成したs番目(sは整数であるとする)のサブセットが有する最初の画像及び最後の画像を、それぞれIs1及びIs2(s1及びs2は、1≦s1<s2≦Nを満たす整数であるとする)とした場合、制御部9aは、前述した処理において生成した各サブセットのうち、s1≦i<s2またはi=s2を満たす所定のサブセットにおけるクラス分布情報及び特徴量分布情報を取得する(図18のステップS32)。   Here, the first image and the last image of the s-th subset (assuming that s is an integer) generated in the processing up to step S17 in FIG. 11 are Is1 and Is2 (s1 and s2 are respectively). 1 ≦ s1 <s2 ≦ N), the control unit 9a is a predetermined subset satisfying s1 ≦ i <s2 or i = s2 among the subsets generated in the above-described processing. Class distribution information and feature amount distribution information are acquired (step S32 in FIG. 18).

その後、制御部9aは、s1≦i<s2またはi=s2を満たす所定のサブセットにおけるクラス分布情報及び特徴量分布情報に基づき、画像Iiが有する各矩形領域が、胃粘膜、絨毛、便、泡及び不明からなる5つのクラスのうち、どのクラスに属するかを識別し、該識別結果に基づく分類を行う(図18のステップS33)。なお、制御部9aは、前述した、図11のステップS17までの処理において発生していないクラスについて、教師データにより予め推定された特徴量分布情報を用いた識別及び分類を行うものであっても良い。   After that, the control unit 9a determines that each rectangular region included in the image Ii is a gastric mucosa, villi, feces, bubbles based on the class distribution information and the feature amount distribution information in a predetermined subset that satisfies s1 ≦ i <s2 or i = s2. Then, the class belonging to the five classes of unknown is identified, and classification is performed based on the identification result (step S33 in FIG. 18). Note that the control unit 9a may identify and classify a class that has not occurred in the processing up to step S17 in FIG. 11 using the feature amount distribution information estimated in advance from the teacher data. good.

さらに、制御部9aは、図18のステップS33における分類結果に基づき、画像Iiの各矩形領域のうち、胃粘膜または絨毛として分類された領域、すなわち、生体粘膜が撮像された領域が存在するか否かを判定する。そして、制御部9aは、画像Iiの各矩形領域のうち、生体粘膜が撮像された領域が存在する場合(図18のステップS34)、画像Iiにおいて生体粘膜が撮像されていると判定された全領域における全特徴量に基づく値と、画像Iiにおいて生体粘膜が撮像されていると判定された一の領域が有する特徴量μgp及びμbpの値との比較により病変箇所を検出するための処理、すなわち、病変検出処理として、例えば、出血または発赤を検出する処理を行う(図18のステップS35)。   Further, based on the classification result in step S33 of FIG. 18, the control unit 9a determines whether there is a region classified as gastric mucosa or villi, that is, a region where the biological mucous membrane is imaged among the rectangular regions of the image Ii. Determine whether or not. Then, when there is an area where the biological mucous membrane is imaged among the rectangular areas of the image Ii (step S34 in FIG. 18), the control unit 9a determines that the biological mucous membrane is imaged in the image Ii. A process for detecting a lesion site by comparing a value based on all the feature values in the region with the values of the feature values μgp and μbp of one region in which it is determined that the biological mucous membrane is imaged in the image Ii, that is, As the lesion detection processing, for example, processing for detecting bleeding or redness is performed (step S35 in FIG. 18).

具体的には、制御部9aは、例えば、画像Iiにおいて生体粘膜が撮像されていると判定された一の領域が有する特徴量μgp及びμbpの値と、画像Iiにおいて生体粘膜が撮像されていると判定された全領域に含まれる各画素のRGB値の比に基づく値としての、giv/rivの平均値(以降、μgiと記す)及びbiv/givの平均値(以降、μbiと記す)とに基づき、μgpとμgiとの比較及びμbpとμbiとの比較を行うことにより、画像Iiにおいて生体粘膜が撮像された領域のうち、出血または発赤が撮像された領域を検出する。このような処理を行うことにより、制御部9aは、クラス分類を伴う領域分割結果において、生体粘膜が撮像されていると判定された全領域の平均色度に対し、出血または発赤調の変化を呈するとされる色度を有する一の領域を、出血領域または発赤領域として正確に検出することができる。なお、制御部9aは、画像Iiにおいて不明クラスに分類された一の領域が有する特徴量とμgi及びμbiとの比較結果に基づく処理をさらに行うことにより、画像Iiにおいて生体粘膜が撮像された領域に加え、画像Iiにおいて不明クラスに分類された領域に対しても出血または発赤が撮像された領域を検出可能とするものであっても良い。   Specifically, for example, the control unit 9a captures the biological mucous membrane in the image Ii and the values of the feature amounts μgp and μbp of one region in which the biological mucous membrane is determined to be captured in the image Ii. The average value of giv / riv (hereinafter referred to as μgi) and the average value of biv / giv (hereinafter referred to as μbi) as values based on the ratio of the RGB values of each pixel included in all the regions determined as Based on the above, a comparison between μgp and μgi and a comparison between μbp and μbi are performed to detect a region where bleeding or redness is imaged among regions where the biological mucosa is imaged in the image Ii. By performing such processing, the control unit 9a changes the bleeding or redness of the average chromaticity of all the regions in which it is determined that the biological mucous membrane is imaged in the region segmentation result with class classification. One region having the chromaticity to be exhibited can be accurately detected as a bleeding region or a redness region. Note that the control unit 9a further performs processing based on the comparison result between the feature amount of one region classified into the unknown class in the image Ii and μgi and μbi, so that the region where the biological mucous membrane is imaged in the image Ii. In addition, it may be possible to detect a region where bleeding or redness is imaged even in a region classified as an unknown class in the image Ii.

制御部9aは、入力されたN枚の画像全てに対し、前述した処理が完了していない場合(図18のステップS36)、画像番号iに1を加え(図18のステップS37)、次の画像について、図18のステップS31からステップS36までに示す処理を引き続き行う。   If the above-described processing has not been completed for all the input N images (step S36 in FIG. 18), the controller 9a adds 1 to the image number i (step S37 in FIG. 18), and The processing shown in steps S31 to S36 in FIG. 18 is continued for the image.

なお、制御部9aは、胃粘膜または絨毛として分類された領域に加え、胆汁等により黄色調になった絨毛もまた生体粘膜が撮像された領域であるとして判定するものであっても良い。   In addition to the area classified as the gastric mucosa or villus, the control unit 9a may determine that the villi that is yellowish due to bile or the like is also an area where the biological mucosa is imaged.

また、以上に述べた画像処理方法は、カプセル型内視鏡により撮像された画像に対してのみ適用されるものに限らず、例えば、生体内に挿入可能であるとともに、撮像機能を有する挿入部を具備して構成される内視鏡により撮像された画像に対して適用されるものであっても良い。   In addition, the image processing method described above is not limited to an image that is applied only to an image captured by a capsule endoscope. For example, an insertion unit that can be inserted into a living body and has an imaging function. The present invention may be applied to an image captured by an endoscope that is configured to include:

以上に述べたように、本実施形態における画像処理方法によれば、画像を撮像対象毎に高精度かつ高速に分類することができ、さらに、前記分類結果に基づいて撮像された臓器を特定することができ、その結果、ユーザによる観察の効率化をはかることができる。   As described above, according to the image processing method of the present embodiment, it is possible to classify images with high accuracy and high speed for each imaging target, and further specify the imaged organ based on the classification result. As a result, the efficiency of observation by the user can be improved.

また、本実施形態によれば、生体粘膜が撮像された領域として分類された各々の領域に対し、さらに、前述した病変検出処理を用いることにより、病変部位の検出精度を高めることができる。   In addition, according to the present embodiment, the lesion site detection accuracy can be increased by using the lesion detection process described above for each region classified as the region where the biological mucous membrane is imaged.

また、本発明の第1の実施形態及び第2の実施形態において、制御部9aは、一の画像Iiを大きさ8×8からなる複数の矩形領域に分割して一連の処理を行うとして説明を行っているが、これに限るものではなく、例えば、1×1、すなわち画素毎に分割して処理を行うものであってもよいし、また、他の大きさの矩形領域に分割して処理を行うものであってもよい。   Further, in the first and second embodiments of the present invention, the control unit 9a is described as performing a series of processes by dividing one image Ii into a plurality of rectangular regions having a size of 8 × 8. However, the present invention is not limited to this. For example, the processing may be performed by dividing the pixel by 1 × 1, that is, for each pixel, or by dividing into rectangular regions of other sizes. Processing may be performed.

さらに、本発明の第1の実施形態及び第2の実施形態において、制御部9aは、一の画像Iiを大きさ8×8からなる複数の矩形領域に分割して一連の処理を行うとして説明を行っているが、これに限るものではなく、例えば、エッジ情報等に応じた、一の画像Iiにおける分類結果に基づく領域に分割して処理を行うものであってもよいし、また、他の形状を有する領域に分割して処理を行うものであってもよい。   Furthermore, in the first embodiment and the second embodiment of the present invention, the control unit 9a is described as performing a series of processing by dividing one image Ii into a plurality of rectangular regions having a size of 8 × 8. However, the present invention is not limited to this. For example, the processing may be performed by dividing into regions based on the classification result in one image Ii according to edge information or the like. The processing may be performed by dividing into regions having the following shape.

なお、本発明は、上述した実施形態に限定されるものではなく、発明の趣旨を逸脱しない範囲内において種々の変更や応用が可能であることは勿論である。   In addition, this invention is not limited to embodiment mentioned above, Of course, a various change and application are possible in the range which does not deviate from the meaning of invention.

本発明の第1の実施形態である画像処理動作が行われる画像処理装置および周辺機器の外観を示した外観正面図。1 is an external front view showing the external appearance of an image processing apparatus and peripheral devices that perform an image processing operation according to a first embodiment of the present invention. 本実施形態の画像処理装置において処理する所定の画像情報を生成するカプセル型内視鏡の一部を切り取って示した要部拡大断面図。The principal part expanded sectional view which cut and showed a part of capsule type | mold endoscope which produces | generates the predetermined image information processed in the image processing apparatus of this embodiment. 本実施形態の画像処理装置に所定の画像情報を供給するカプセル型内視鏡装置の概略内部構成を示すブロック図。1 is a block diagram showing a schematic internal configuration of a capsule endoscope apparatus that supplies predetermined image information to an image processing apparatus according to an embodiment. 本実施形態の画像処理装置に所定の画像情報を供給するカプセル型内視鏡装置の一使用例を示した図。The figure which showed the usage example of the capsule type endoscope apparatus which supplies predetermined | prescribed image information to the image processing apparatus of this embodiment. 図2に示すカプセル型内視鏡から出力される信号の一例を示したタイミングチャート。The timing chart which showed an example of the signal output from the capsule type endoscope shown in FIG. 図2に示すカプセル型内視鏡の位置検出を説明する説明図。Explanatory drawing explaining the position detection of the capsule type endoscope shown in FIG. 図3に示すカプセル型内視鏡装置を使用した際におけるアンテナユニットを示した要部拡大断面図。The principal part expanded sectional view which showed the antenna unit at the time of using the capsule type endoscope apparatus shown in FIG. 図3に示すカプセル型内視鏡装置を使用した際におけるシールドジャケットを説明する説明図。Explanatory drawing explaining the shield jacket at the time of using the capsule type endoscope apparatus shown in FIG. 図3に示すカプセル型内視鏡装置の外部装置の被検体への装着状態を説明する説明図。Explanatory drawing explaining the mounting state to the subject of the external apparatus of the capsule type endoscope apparatus shown in FIG. 図2に示すカプセル型内視鏡の電気的な構成を示すブロック図。FIG. 3 is a block diagram showing an electrical configuration of the capsule endoscope shown in FIG. 2. 本実施形態に係る画像処理動作を示すフローチャート。5 is a flowchart showing an image processing operation according to the present embodiment. 制御部が行う処理により作成される、特徴空間におけるヒストグラムの一例を示す図。The figure which shows an example of the histogram in the feature space produced by the process which a control part performs. 制御部が行う処理により作成される、特徴空間におけるクラスタの一例を示す図。The figure which shows an example of the cluster in the feature space produced by the process which a control part performs. 図13に示すクラスタのうち、特徴空間における面積または体積が所定の閾値未満であるクラスタが削除される様子を示す図。The figure which shows a mode that the cluster whose area or volume in feature space is less than a predetermined threshold among the clusters shown in FIG. 13 is deleted. 制御部が行う処理である、境界が接している2つ以上のクラスタの統合または分離判定の処理の一例を示すフローチャート。The flowchart which shows an example of the process of integration or isolation | separation determination of two or more clusters which the boundary has touched which is the process which a control part performs. 胃粘膜クラス及び絨毛クラスに分類された領域が有する特徴量μgpの、サブセット毎の時間方向における変化を示すグラフ。The graph which shows the change in the time direction for every subset of feature-value microgp which the area | region classified into the gastric mucosa class and the villus class has. 図16のグラフに示される特徴量μgpにおいて、時間方向への平滑化処理を行った場合のグラフ。The graph at the time of performing the smoothing process to a time direction in the feature-value microgp shown by the graph of FIG. 制御部が行う処理である、病変検出処理の一例を示すフローチャート。The flowchart which shows an example of the lesion detection process which is a process which a control part performs.

符号の説明Explanation of symbols

1・・・カプセル型内視鏡装置、2・・・患者、3・・・カプセル型内視鏡、3D・・・カプセル本体、4・・・アンテナユニット、5・・・外部装置、5D・・・本体部、6・・・クレードル、7・・・端末装置、8a・・・キーボード、8b・・・マウス、8c・・・ディスプレイ、9・・・端末本体、9a・・・制御部、10・・・ジャケット、11,11a,11b,11c,11d・・・受信アンテナ、12・・・液晶モニタ、13・・・操作部、14・・・外装部材、14a・・・カバー部材、15・・・対物レンズ、16・・・レンズ枠、17・・・電荷結合素子、17A・・・CCDドライバ、18・・・LED、18A・・・LEDドライバ、19,19A・・・処理回路、19B・・・タイミングジェネレータ、19C,19D,19E・・・スイッチ、20・・・通信処理回路、21・・・電池、23・・・送信アンテナ、 33・・・受信回路、35・・・信号処理回路、37・・・送信器、43・・・撮像装置、45・・・アンテナ切換スイッチ、46・・・アンテナ選択回路、47・・・メモリ、72・・・シールドジャケット、73・・・ベルト、74・・・鍵穴、 75・・・鍵   DESCRIPTION OF SYMBOLS 1 ... Capsule type endoscope apparatus, 2 ... Patient, 3 ... Capsule type endoscope, 3D ... Capsule main body, 4 ... Antenna unit, 5 ... External device, 5D ..Main unit, 6 ... cradle, 7 ... terminal device, 8a ... keyboard, 8b ... mouse, 8c ... display, 9 ... terminal main unit, 9a ... control unit, DESCRIPTION OF SYMBOLS 10 ... Jacket, 11, 11a, 11b, 11c, 11d ... Reception antenna, 12 ... Liquid crystal monitor, 13 ... Operation part, 14 ... Exterior member, 14a ... Cover member, 15 ... objective lens, 16 ... lens frame, 17 ... charge coupled device, 17A ... CCD driver, 18 ... LED, 18A ... LED driver, 19, 19A ... processing circuit, 19B: Timing generator, 19C 19D, 19E ... switch, 20 ... communication processing circuit, 21 ... battery, 23 ... transmitting antenna, 33 ... receiving circuit, 35 ... signal processing circuit, 37 ... transmitter , 43 ... Imaging device, 45 ... Antenna selector switch, 46 ... Antenna selection circuit, 47 ... Memory, 72 ... Shield jacket, 73 ... Belt, 74 ... Keyhole, 75 ···key

Claims (26)

撮像機能を有する医療機器により撮像された複数の画像に基づく画像信号を入力する画像信号入力手段と、
前記画像信号入力手段において入力した画像信号に基づき、前記複数の画像を各々複数の領域に分割する画像分割手段と、
前記画像分割手段により分割された前記複数の領域各々における特徴量を算出する特徴量算出手段と、
前記特徴量及び前記特徴量の発生頻度に基づき、特徴空間において複数のクラスタを生成するとともに、該複数のクラスタを複数のクラスのいずれかに各々分類するクラスタ分類手段と、
前記複数の画像を用い、前記複数の画像が各々撮像されたタイミングに基づく複数のサブセットを生成するサブセット生成手段と、
前記サブセット生成手段により生成された一のサブセットに含まれる画像各々の、前記特徴空間における前記特徴量の分布状態に基づき、前記一のサブセットに含まれる画像を、前記複数のクラスのいずれかに各々分類する際の分類基準を算出する分類基準算出手段と、
を具備することを特徴とする画像処理装置。
Image signal input means for inputting image signals based on a plurality of images captured by a medical device having an imaging function;
Image dividing means for dividing each of the plurality of images into a plurality of regions based on the image signal input by the image signal input means;
Feature amount calculating means for calculating a feature amount in each of the plurality of regions divided by the image dividing means;
Cluster classification means for generating a plurality of clusters in a feature space based on the feature amount and the occurrence frequency of the feature amount, and classifying the plurality of clusters into any of a plurality of classes,
Subset generating means for generating a plurality of subsets based on the timing at which each of the plurality of images is captured using the plurality of images;
Based on the distribution state of the feature quantity in the feature space of each of the images included in the one subset generated by the subset generation means, the images included in the one subset are each in one of the plurality of classes. A classification standard calculation means for calculating a classification standard for classification,
An image processing apparatus comprising:
さらに、前記分類基準算出手段は、前記複数のクラスのうち、一のサブセットにおいて前記特徴量が発生しないクラスについては、前記分類基準を算出しないことを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the classification criterion calculation unit does not calculate the classification criterion for a class in which the feature amount does not occur in one subset of the plurality of classes. . 前記複数のクラスは、生体粘膜に関するクラスと、非生体粘膜に関するクラスとを少なくとも有することを特徴とする請求項1または請求項2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the plurality of classes include at least a class relating to a biological mucosa and a class relating to a non-biological mucosa. さらに、前記分類基準に基づき、前記一のサブセットに含まれる一の画像における各領域の分類を行う分類手段と、
前記一の画像の分類結果に基づき、前記一の画像が前記生体粘膜に関するクラスとして分類された領域を有している場合、該領域各々に対し、病変箇所を検出するための処理を行う病変検出手段と、
を有することを特徴とする請求項3に記載の画像処理装置。
Furthermore, based on the classification criteria, classification means for classifying each region in one image included in the one subset,
If the one image has a region classified as a class related to the biological mucous membrane based on the classification result of the one image, lesion detection is performed for each region to detect a lesion location. Means,
The image processing apparatus according to claim 3, further comprising:
撮像機能を有する医療機器により撮像された画像に基づいて入力される画像信号に基づき、前記画像を各々複数の領域に分割する画像分割ステップと、
前記画像分割ステップにより分割された前記複数の領域各々における特徴量を算出する特徴量算出ステップと、
前記特徴量及び前記特徴量の発生頻度に基づき、特徴空間において複数のクラスタを生成するとともに、該複数のクラスタを複数のクラスのいずれかに各々分類するクラスタ分類ステップと、
前記複数の画像を用い、前記複数の画像が各々撮像されたタイミングに基づく複数のサブセットを生成するサブセット生成ステップと、
前記サブセット生成ステップにより生成された一のサブセットに含まれる画像各々の、前記特徴空間における前記特徴量の分布状態に基づき、前記一のサブセットに含まれる画像を各々分類する際の分類基準を算出する分類基準算出ステップと、
を具備することを特徴とする画像処理装置における画像処理方法。
An image dividing step of dividing the image into a plurality of regions based on an image signal input based on an image captured by a medical device having an imaging function;
A feature amount calculating step for calculating a feature amount in each of the plurality of regions divided by the image dividing step;
A cluster classification step of generating a plurality of clusters in a feature space based on the feature amount and the occurrence frequency of the feature amount, and classifying the plurality of clusters into any of a plurality of classes;
A subset generation step of generating a plurality of subsets based on the timing at which each of the plurality of images is captured using the plurality of images;
Based on the distribution state of the feature quantity in the feature space of each image included in the one subset generated by the subset generation step, a classification criterion for classifying the images included in the one subset is calculated. A classification criteria calculation step;
An image processing method in an image processing apparatus comprising:
さらに、前記分類基準算出ステップは、前記複数のクラスのうち、一のサブセットにおいて前記特徴量が発生しないクラスについては、前記分類基準を算出しないことを特徴とする請求項5に記載の画像処理装置における画像処理方法。   The image processing apparatus according to claim 5, wherein the classification criterion calculation step does not calculate the classification criterion for a class in which the feature amount does not occur in one subset of the plurality of classes. Image processing method. 前記複数のクラスは、生体粘膜に関するクラスと、非生体粘膜に関するクラスとを少なくとも有することを特徴とする請求項5または請求項6に記載の画像処理装置における画像処理方法。   7. The image processing method in the image processing apparatus according to claim 5, wherein the plurality of classes include at least a class related to a biological mucosa and a class related to a non-biological mucosa. さらに、前記分類基準に基づき、前記一のサブセットに含まれる一の画像における各領域の分類を行う分類ステップと、
前記一の画像の分類結果に基づき、前記一の画像が前記生体粘膜に関するクラスとして分類された領域を有している場合、該領域各々に対し、病変箇所を検出するための処理を行う病変検出ステップと、
を有することを特徴とする請求項7に記載の画像処理装置における画像処理方法。
A classification step for classifying each region in one image included in the one subset based on the classification criterion;
If the one image has a region classified as a class related to the biological mucous membrane based on the classification result of the one image, lesion detection is performed for each region to detect a lesion location. Steps,
The image processing method in the image processing apparatus according to claim 7, further comprising:
撮像機能を有する医療機器により時系列的に撮像された複数の画像に基づく画像信号を入力する画像信号入力手段と、
前記画像信号入力手段において入力した画像信号に基づき、前記複数の画像を各々複数の領域に分割する画像分割手段と、
前記画像分割手段により分割された前記複数の領域各々における特徴量を算出する特徴量算出手段と、
前記特徴量に基づき、前記複数の領域各々を複数のクラスのいずれかに各々分類する画像領域分類手段と、
前記複数の画像各々において、少なくとも一のクラスの特徴量の代表値を算出する代表値算出手段と、
前記代表値の変動を時系列的に検出する変動検出手段と、
を具備することを特徴とする画像処理装置。
Image signal input means for inputting image signals based on a plurality of images captured in time series by a medical device having an imaging function;
Image dividing means for dividing each of the plurality of images into a plurality of regions based on the image signal input by the image signal input means;
Feature amount calculating means for calculating a feature amount in each of the plurality of regions divided by the image dividing means;
Image region classification means for classifying each of the plurality of regions into any of a plurality of classes based on the feature amount;
In each of the plurality of images, representative value calculation means for calculating a representative value of at least one class of feature values;
A fluctuation detecting means for detecting the fluctuation of the representative value in time series ;
An image processing apparatus comprising:
さらに、前記代表値各々に対して時系列方向の平滑化を適用する平滑化手段を有し、
前記変動検出手段は、前記平滑化手段により平滑化された後の前記代表値に基づき、前記代表値の変動が極大となる画像または時間のいずれかを検出することを特徴とする請求項9に記載の画像処理装置。
Furthermore, it has smoothing means for applying smoothing in the time series direction to each of the representative values,
10. The variation detection unit detects, based on the representative value smoothed by the smoothing unit, either an image or a time at which the variation of the representative value is maximized. The image processing apparatus described.
前記代表値の変動は、生体内における観察部位の変化に基づいて生じるものであることを特徴とする請求項9または請求項10に記載の画像処理装置。   The image processing apparatus according to claim 9, wherein the variation in the representative value is generated based on a change in an observation site in a living body. 前記代表値の変動は、生体内における便の存在に基づいて生じるものであることを特徴とする請求項9または請求項10に記載の画像処理装置。   The image processing apparatus according to claim 9 or 10, wherein the change in the representative value is generated based on the presence of feces in a living body. 前記代表値の変動は、生体内における胆汁の存在に基づいて生じるものであることを特徴とする請求項9または請求項10に記載の画像処理装置。   The image processing apparatus according to claim 9, wherein the variation of the representative value is generated based on the presence of bile in a living body. 前記代表値の変動は、生体内における病変部位の存在に基づいて生じるものであることを特徴とする請求項9または請求項10に記載の画像処理装置。   The image processing apparatus according to claim 9, wherein the variation in the representative value is generated based on the presence of a lesion site in a living body. 前記代表値は、前記複数のクラス各々における特徴量の平均値であることを特徴とする請求項9乃至請求項14のいずれか一に記載の画像処理装置。   The image processing apparatus according to claim 9, wherein the representative value is an average value of feature amounts in each of the plurality of classes. 撮像機能を有する医療機器により撮像された画像に基づいて入力される画像信号に基づき、前記画像を各々複数の領域に分割する画像分割ステップと、
前記画像分割ステップにより分割された前記複数の領域各々における特徴量を算出する特徴量算出ステップと、
前記特徴量に基づき、前記複数の領域各々を複数のクラスのいずれかに各々分類する画像領域分類ステップと、
前記複数の画像各々において、少なくとも一のクラスの特徴量の代表値を算出する代表値算出ステップと、
前記代表値の変動を時系列的に検出する変動検出ステップと、
を具備することを特徴とする画像処理装置における画像処理方法。
An image dividing step of dividing the image into a plurality of regions based on an image signal input based on an image captured by a medical device having an imaging function;
A feature amount calculating step for calculating a feature amount in each of the plurality of regions divided by the image dividing step;
An image region classification step for classifying each of the plurality of regions into one of a plurality of classes based on the feature amount;
In each of the plurality of images, a representative value calculating step of calculating a representative value of the feature quantity of at least one class;
A fluctuation detecting step for detecting the fluctuation of the representative value in time series ;
An image processing method in an image processing apparatus comprising:
さらに、前記代表値各々に対して時系列方向の平滑化を適用する平滑化ステップを有し、
前記平滑化ステップにより平滑化された後の前記代表値に基づき、前記代表値の変動が極大となる画像または時間のいずれかを検出する処理を前記変動検出ステップにおいて行うことを特徴とする請求項16に記載の画像処理装置における画像処理方法。
And a smoothing step of applying smoothing in a time series direction to each of the representative values,
The process of detecting either an image or a time at which the variation of the representative value is maximized based on the representative value after being smoothed by the smoothing step is performed in the variation detecting step. An image processing method in the image processing apparatus according to 16.
前記代表値の変動は、生体内における観察部位の変化に基づいて生じるものであることを特徴とする請求項16または請求項17に記載の画像処理装置における画像処理方法。   The image processing method in the image processing apparatus according to claim 16 or 17, wherein the variation of the representative value is generated based on a change in an observation site in a living body. 前記代表値の変動は、生体内における便の存在に基づいて生じるものであることを特徴とする請求項16または請求項17に記載の画像処理装置における画像処理方法。   The image processing method in the image processing apparatus according to claim 16 or 17, wherein the variation of the representative value is generated based on the presence of feces in a living body. 前記代表値の変動は、生体内における胆汁の存在に基づいて生じるものであることを特徴とする請求項16または請求項17に記載の画像処理装置における画像処理方法。   18. The image processing method in the image processing apparatus according to claim 16, wherein the variation of the representative value is generated based on the presence of bile in a living body. 前記代表値の変動は、生体内における病変部位の存在に基づいて生じるものであることを特徴とする請求項16または請求項17に記載の画像処理装置における画像処理方法。   The image processing method in the image processing apparatus according to claim 16 or 17, wherein the variation of the representative value is generated based on the presence of a lesion site in a living body. 前記代表値は、前記複数のクラス各々における特徴量の平均値であることを特徴とする請求項16乃至請求項21のいずれか一に記載の画像処理装置における画像処理方法。   The image processing method in the image processing apparatus according to any one of claims 16 to 21, wherein the representative value is an average value of feature amounts in each of the plurality of classes. 前記病変検出手段は、前記医療機器に設けられていることを特徴とする請求項4に記載の画像処理装置。  The image processing apparatus according to claim 4, wherein the lesion detection unit is provided in the medical device. 前記病変検出ステップは、前記医療機器内において行われることを特徴とする請求項8に記載の画像処理装置における画像処理方法。  The image processing method in the image processing apparatus according to claim 8, wherein the lesion detection step is performed in the medical device. 前記変動検出手段は、前記時系列的に検出された代表値の変動が極大となる画像または時間のいずれかを検出する処理を行うことを特徴とする請求項9に記載の画像処理装置。  The image processing apparatus according to claim 9, wherein the variation detection unit performs a process of detecting either an image or a time at which the variation of the representative value detected in time series is a maximum. 前記変動検出ステップは、前記時系列的に検出された代表値の変動が極大となる画像または時間のいずれかを検出する処理を行うことを特徴とする請求項16に記載の画像処理装置における画像処理方法。  The image in the image processing apparatus according to claim 16, wherein the variation detection step performs a process of detecting either an image or a time at which the variation of the representative value detected in time series is a maximum. Processing method.
JP2005380210A 2005-12-28 2005-12-28 Image processing apparatus and image processing method in the image processing apparatus Expired - Fee Related JP4472631B2 (en)

Priority Applications (12)

Application Number Priority Date Filing Date Title
JP2005380210A JP4472631B2 (en) 2005-12-28 2005-12-28 Image processing apparatus and image processing method in the image processing apparatus
PCT/JP2006/322387 WO2007077672A1 (en) 2005-12-28 2006-11-09 Image processing device and image processing method in the image processing device
EP11008472.0A EP2412301B1 (en) 2005-12-28 2006-11-09 Image processing device and image processing method in image processing device
EP06823274A EP1969992B1 (en) 2005-12-28 2006-11-09 Image processing device and image processing method in the image processing device
CN200680049583.0A CN101351149B (en) 2005-12-28 2006-11-09 Image processing device and image processing method in the image processing device
CN201010511970XA CN101947113B (en) 2005-12-28 2006-11-09 Image processing device and image processing method in image processing device
EP11008465.4A EP2412300B1 (en) 2005-12-28 2006-11-09 Image processing device and image processing method in image processing device
CN2010105119860A CN101947114B (en) 2005-12-28 2006-11-09 Image processing device and image processing method in image processing device
US11/638,821 US20070165932A1 (en) 2005-12-28 2006-12-14 Image processing device and image processing method in image processing device
US13/166,938 US8363962B2 (en) 2005-12-28 2011-06-23 Image processing device and image processing method in image processing device for identifying features in an image
US13/168,510 US8300955B2 (en) 2005-12-28 2011-06-24 Image processing device and image processing method in image processing device for identifying features in an image
US13/168,483 US8369626B2 (en) 2005-12-28 2011-06-24 Image processing device and image processing method in image processing device for identifying features in an image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005380210A JP4472631B2 (en) 2005-12-28 2005-12-28 Image processing apparatus and image processing method in the image processing apparatus

Publications (2)

Publication Number Publication Date
JP2007175432A JP2007175432A (en) 2007-07-12
JP4472631B2 true JP4472631B2 (en) 2010-06-02

Family

ID=38301181

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005380210A Expired - Fee Related JP4472631B2 (en) 2005-12-28 2005-12-28 Image processing apparatus and image processing method in the image processing apparatus

Country Status (2)

Country Link
JP (1) JP4472631B2 (en)
CN (1) CN101351149B (en)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5004736B2 (en) * 2007-09-25 2012-08-22 オリンパス株式会社 Image processing apparatus and image processing program
JP5312807B2 (en) 2008-01-08 2013-10-09 オリンパス株式会社 Image processing apparatus and image processing program
JP5281826B2 (en) * 2008-06-05 2013-09-04 オリンパス株式会社 Image processing apparatus, image processing program, and image processing method
JP5576384B2 (en) * 2010-01-29 2014-08-20 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Data processing device
JP5011452B2 (en) * 2010-04-12 2012-08-29 オリンパスメディカルシステムズ株式会社 MEDICAL IMAGE PROCESSING DEVICE AND MEDICAL IMAGE PROCESSING DEVICE CONTROL METHOD
JP5828649B2 (en) * 2011-03-09 2015-12-09 キヤノン株式会社 Image processing apparatus, image processing method, and computer program
JP5784751B2 (en) * 2011-12-08 2015-09-24 オリンパス株式会社 Image processing apparatus, operation method of image processing apparatus, and image processing program
JP6150583B2 (en) * 2013-03-27 2017-06-21 オリンパス株式会社 Image processing apparatus, endoscope apparatus, program, and operation method of image processing apparatus
JP6371544B2 (en) * 2014-03-14 2018-08-08 オリンパス株式会社 Image processing apparatus, image processing method, and image processing program
JP6339872B2 (en) 2014-06-24 2018-06-06 オリンパス株式会社 Image processing apparatus, endoscope system, and image processing method
US11087461B2 (en) 2016-06-28 2021-08-10 Sony Corporation Image processing device, image processing method, medical imaging system
JP6849583B2 (en) * 2017-12-26 2021-03-24 日本電信電話株式会社 Image abnormality judgment device, image abnormality judgment method and computer program
EP3539455A1 (en) 2018-03-14 2019-09-18 Sorbonne Université Method for automatically determining image display quality in an endoscopic video capsule
CN115409800A (en) * 2022-08-30 2022-11-29 一汽丰田汽车有限公司 Automatic primer spraying detection system and method
CN116977253B (en) * 2022-12-29 2024-03-19 开立生物医疗科技(武汉)有限公司 Cleanliness detection method and device for endoscope, electronic equipment and medium
CN120219843B (en) * 2025-03-17 2025-10-03 中南大学 Flotation process working condition identification method and system based on dynamic time series graph neural network

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL108352A (en) * 1994-01-17 2000-02-29 Given Imaging Ltd In vivo video camera system
US6826424B1 (en) * 2000-12-19 2004-11-30 Haishan Zeng Methods and apparatus for fluorescence and reflectance imaging and spectroscopy and for contemporaneous measurements of electromagnetic radiation with multiple measuring devices

Also Published As

Publication number Publication date
CN101351149B (en) 2011-02-02
CN101351149A (en) 2009-01-21
JP2007175432A (en) 2007-07-12

Similar Documents

Publication Publication Date Title
US8363962B2 (en) Image processing device and image processing method in image processing device for identifying features in an image
JP4624841B2 (en) Image processing apparatus and image processing method in the image processing apparatus
JP4615963B2 (en) Capsule endoscope device
US8160329B2 (en) Medical image processing device and medical image processing method
JP4472631B2 (en) Image processing apparatus and image processing method in the image processing apparatus
US7953261B2 (en) Image processing apparatus and image processing method
JP4652694B2 (en) Image processing method
JP4520405B2 (en) Image processing apparatus and image processing method in the image processing apparatus
JP4624842B2 (en) Image processing method, image processing apparatus, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100209

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100303

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130312

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4472631

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130312

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140312

Year of fee payment: 4

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees