[go: up one dir, main page]

JP4905723B2 - Image processing system, image processing method, and program - Google Patents

Image processing system, image processing method, and program Download PDF

Info

Publication number
JP4905723B2
JP4905723B2 JP2008093321A JP2008093321A JP4905723B2 JP 4905723 B2 JP4905723 B2 JP 4905723B2 JP 2008093321 A JP2008093321 A JP 2008093321A JP 2008093321 A JP2008093321 A JP 2008093321A JP 4905723 B2 JP4905723 B2 JP 4905723B2
Authority
JP
Japan
Prior art keywords
image
feature
region
unit
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008093321A
Other languages
Japanese (ja)
Other versions
JP2009246837A (en
Inventor
誠 與那覇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2008093321A priority Critical patent/JP4905723B2/en
Publication of JP2009246837A publication Critical patent/JP2009246837A/en
Application granted granted Critical
Publication of JP4905723B2 publication Critical patent/JP4905723B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)

Description

本発明は、画像処理システム、画像処理方法、およびプログラムに関する。本発明は、特に、画像を処理する画像処理システムおよび画像処理方法、ならびに画像処理システム用のプログラムに関する。   The present invention relates to an image processing system, an image processing method, and a program. The present invention particularly relates to an image processing system and an image processing method for processing an image, and a program for the image processing system.

顔画像を取得する顔画像抽出装置において、入力映像を時間方向に間引いてフレームレートを変換して、フレームレートが変換された入力画像から人物の顔を抽出する顔画像抽出装置が知られている(例えば、特許文献1参照。)。この装置では、最も高い顔画像の評価値が得られると考えられる範囲の再生を指示する。また、ROI領域を特定するための情報を符号化して、符号化した画像と、符号化した上記情報を明示的に含めて、符号化ストリームを生成する画像符号化装置が知られている(例えば、特許文献2参照。)。
特開2006−303897号公報 特開2006−129249号公報
2. Description of the Related Art A face image extraction apparatus that acquires a face image is known which extracts a person's face from an input image whose frame rate is converted by thinning an input video in a time direction to convert the frame rate. (For example, refer to Patent Document 1). In this apparatus, the reproduction of the range in which the highest evaluation value of the face image can be obtained is instructed. Also, there is known an image encoding device that encodes information for specifying the ROI region, explicitly includes the encoded image and the encoded information, and generates an encoded stream (for example, , See Patent Document 2).
JP 2006-303897 A JP 2006-129249 A

上記特許文献に記載されたように、フレームを間引いて顔領域などのROI領域を特定すると、間引かれて失われたフレームのROI領域に関する情報を残すことができない。このため、ROI領域を検出し損ねた場合には、正確なROI領域を後で特定することできなくなる場合がある。   As described in the above-mentioned patent document, if a frame is thinned and an ROI region such as a face region is specified, information on the ROI region of the frame lost by thinning cannot be left. For this reason, if the ROI area is missed, it may not be possible to specify the exact ROI area later.

上記課題を解決するために、本発明の第1の形態によると、画像処理システムであって、異なるタイミングで撮像された複数の撮像画像を取得する画像取得部と、複数の撮像画像のそれぞれから特徴領域を検出する特徴領域検出部と、複数の撮像画像の中から、一部の撮像画像を選択する画像選択部と、複数の撮像画像から検出された複数の特徴領域を含む領域を示す情報を、一部の撮像画像に対応づけて出力する出力部とを備える。   In order to solve the above-described problem, according to a first aspect of the present invention, an image processing system includes an image acquisition unit that acquires a plurality of captured images captured at different timings, and a plurality of captured images. Information indicating a feature region detection unit that detects a feature region, an image selection unit that selects some captured images from a plurality of captured images, and a region that includes a plurality of feature regions detected from the plurality of captured images Are output in association with some captured images.

本発明の第2の形態によると、画像処理方法であって、異なるタイミングで撮像された複数の撮像画像を取得する画像取得段階と、複数の撮像画像のそれぞれから特徴領域を検出する特徴領域検出段階と、複数の撮像画像の中から、一部の撮像画像を選択する画像選択段階と、複数の撮像画像から検出された複数の特徴領域を含む領域を示す情報を、一部の撮像画像に対応づけて出力する出力段階とを備える。   According to the second aspect of the present invention, there is provided an image processing method, an image acquisition stage for acquiring a plurality of captured images captured at different timings, and a feature region detection for detecting a feature region from each of the plurality of captured images. Information indicating a stage, an image selection stage for selecting a part of the picked-up images from the plurality of picked-up images, and a region including a plurality of feature areas detected from the plurality of picked-up images. And an output stage for outputting in association with each other.

本発明の第3の形態によると、画像処理装置用のプログラムであって、コンピュータを、異なるタイミングで撮像された複数の撮像画像を取得する画像取得部、複数の撮像画像のそれぞれから特徴領域を検出する特徴領域検出部、複数の撮像画像の中から、一部の撮像画像を選択する画像選択部、複数の撮像画像から検出された複数の特徴領域含む領域を示す情報を、一部の撮像画像に対応づけて出力する出力部として機能させる。   According to the third aspect of the present invention, there is provided a program for an image processing device, wherein the computer acquires an image acquisition unit that acquires a plurality of captured images captured at different timings, and a feature region from each of the plurality of captured images. A feature region detection unit to detect, an image selection unit to select a part of the picked-up image from a plurality of picked-up images, a part of information indicating a region including a plurality of feature regions detected from the plurality of picked-up images It functions as an output unit that outputs images in association with images.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.

図1は、一実施形態に係わる画像処理システム10の一例を示す。画像処理システム10は、画像における特徴的な領域の画質を維持しながら画像の符号量を削減することを目的とする。なお、画像処理システム10は、以下に説明するように、監視システムとして機能することができる。   FIG. 1 shows an example of an image processing system 10 according to an embodiment. An object of the image processing system 10 is to reduce the amount of code of an image while maintaining the image quality of a characteristic area in the image. The image processing system 10 can function as a monitoring system as described below.

画像処理システム10は、監視対象空間150を撮像する複数の撮像装置100a−d(以下、撮像装置100と総称する。)、撮像装置100により撮像された撮像画像を処理する複数の画像処理装置120aおよび画像処理装置120b(以下、画像処理装置120と総称する。)、通信ネットワーク110、画像処理装置170、画像DB175、および複数の表示装置180a−d(以下、表示装置180と総称する。)を備える。   The image processing system 10 includes a plurality of imaging devices 100a to 100d (hereinafter collectively referred to as imaging devices 100) that capture the monitoring target space 150, and a plurality of image processing devices 120a that process captured images captured by the imaging device 100. The image processing apparatus 120b (hereinafter collectively referred to as the image processing apparatus 120), the communication network 110, the image processing apparatus 170, the image DB 175, and the plurality of display apparatuses 180a-d (hereinafter collectively referred to as the display apparatus 180). Prepare.

なお、画像処理装置120aは、撮像装置100aおよび撮像装置100bに接続されており、画像処理装置120bは、撮像装置100cおよび撮像装置100dに接続されている。なお、画像処理装置170および表示装置180は、監視対象空間150と異なる空間160に設けられている。   The image processing device 120a is connected to the imaging device 100a and the imaging device 100b, and the image processing device 120b is connected to the imaging device 100c and the imaging device 100d. Note that the image processing device 170 and the display device 180 are provided in a space 160 different from the monitoring target space 150.

撮像装置100aは、撮像部102aおよび撮像動画圧縮部104aを有している。撮像部102aは、異なるタイミングで連続して監視対象空間150を撮像することによって複数の撮像画像を撮像する。撮像部102aは、複数の撮像画像を含む撮像動画を生成する。撮像動画圧縮部104aは、撮像部102aにより撮像された撮像動画をMPEG符号化等により圧縮して、撮像動画データを生成する。このように、撮像装置100aは、監視対象空間150を撮像して得られた撮像動画を符号化して撮像動画データを生成する。撮像装置100aは、当該撮像動画データを、撮像装置100aが接続されている画像処理装置120aに出力する。   The imaging device 100a includes an imaging unit 102a and an imaging moving image compression unit 104a. The imaging unit 102a captures a plurality of captured images by capturing the monitoring target space 150 continuously at different timings. The imaging unit 102a generates a captured moving image including a plurality of captured images. The captured moving image compression unit 104a compresses the captured moving image captured by the imaging unit 102a by MPEG encoding or the like, and generates captured moving image data. Thus, the imaging device 100a encodes the captured moving image obtained by capturing the monitoring target space 150 to generate captured moving image data. The imaging device 100a outputs the captured moving image data to the image processing device 120a to which the imaging device 100a is connected.

なお、撮像装置100b、撮像装置100c、および撮像装置100dは、それぞれ撮像装置100aと同様の構成を有するので、撮像装置100b、撮像装置100c、および撮像装置100dの各構成要素の説明を省略する。なお、撮像装置100bは、生成した撮像動画データを撮像装置100bが接続されている画像処理装置120aに出力する。また、撮像装置100cおよび撮像装置100dは、生成した撮像動画データを、画像処理装置120bに出力する。このようにして、画像処理装置120は、撮像装置100により生成された撮像動画データを、それぞれが接続された撮像装置100から取得する。   Note that the imaging device 100b, the imaging device 100c, and the imaging device 100d have the same configuration as that of the imaging device 100a, and thus description of each component of the imaging device 100b, the imaging device 100c, and the imaging device 100d is omitted. Note that the imaging device 100b outputs the generated captured moving image data to the image processing device 120a to which the imaging device 100b is connected. In addition, the imaging device 100c and the imaging device 100d output the generated captured moving image data to the image processing device 120b. In this way, the image processing device 120 acquires the captured moving image data generated by the imaging device 100 from the imaging device 100 to which each is connected.

そして、画像処理装置120は、撮像装置100から取得した撮像動画データを復号して撮像動画を取得する。画像処理装置120は、取得した撮像動画に含まれる複数の撮像画像のそれぞれから、人物130が撮像された領域、車輌等の移動体140が撮像された領域等のように、特徴の種類が異なる複数の特徴領域を検出する。そして、画像処理装置120は、画像処理装置170に送信すべき撮像画像を選択して、選択した撮像画像を圧縮した圧縮動画データを生成する。   Then, the image processing device 120 decodes the captured moving image data acquired from the imaging device 100 and acquires the captured moving image. The image processing apparatus 120 has different types of features such as an area where a person 130 is imaged, an area where a moving body 140 such as a vehicle is imaged, etc., from each of a plurality of captured images included in the acquired captured video. A plurality of feature regions are detected. Then, the image processing device 120 selects a captured image to be transmitted to the image processing device 170, and generates compressed moving image data in which the selected captured image is compressed.

また、画像処理装置120は、送信すべき撮像画像として選択された撮像画像から検出された特徴領域を特定する情報と、当該送信すべき撮像画像として選択されていない撮像画像から検出された特徴領域を特定する情報とを含む特徴領域情報を生成する。そして、画像処理装置120は、特徴領域情報を圧縮動画データに付帯して、通信ネットワーク110を通じて画像処理装置170に送信する。   Further, the image processing apparatus 120 includes information specifying a feature region detected from a captured image selected as a captured image to be transmitted and a feature region detected from a captured image not selected as the captured image to be transmitted. And feature region information including information for specifying the. Then, the image processing apparatus 120 attaches the feature area information to the compressed moving image data and transmits the feature area information to the image processing apparatus 170 through the communication network 110.

画像処理装置170は、特徴領域情報が対応づけられた圧縮動画データを画像処理装置120から受信する。そして、画像処理装置170は、受信した圧縮動画データを、対応づけられている特徴領域情報を用いて伸張して表示用動画を生成して、生成した表示用動画を表示装置180に供給する。表示装置180は、画像処理装置170から供給された表示用動画を表示する。   The image processing device 170 receives the compressed moving image data associated with the feature area information from the image processing device 120. Then, the image processing device 170 expands the received compressed moving image data using the associated feature area information to generate a display moving image, and supplies the generated display moving image to the display device 180. The display device 180 displays the moving image for display supplied from the image processing device 170.

また、画像処理装置170は、圧縮動画データに対応づけられている特徴領域情報に対応づけて、当該圧縮動画データを画像DB175に記録してもよい。そして、画像処理装置170は、表示装置180からの要求に応じて、画像DB175から圧縮動画データおよび特徴領域情報を読み出して、読み出した圧縮動画データを特徴領域情報を利用して伸張して表示用動画を生成して、表示装置180に供給してもよい。   The image processing apparatus 170 may record the compressed moving image data in the image DB 175 in association with the feature area information associated with the compressed moving image data. Then, in response to a request from the display device 180, the image processing device 170 reads the compressed moving image data and the feature area information from the image DB 175, decompresses the read compressed moving image data using the feature region information, and displays it. A moving image may be generated and supplied to the display device 180.

なお、特徴領域情報は、特徴領域の位置、特徴領域の大きさ、特徴領域の数、特徴領域が検出された撮像画像を識別する識別情報等を含むテキストデータ、もしくは当該テキストデータに圧縮、暗号化等の処理が施されたデータであってよい。そして、画像処理装置170は、特徴領域情報が含む特徴領域の位置、特徴領域の大きさ、特徴領域の数等に基づいて、種々の検索条件を満たす撮像画像を特定する。そして、画像処理装置170は、特定した撮像画像を復号して、表示装置180に提供してよい。   The feature area information is text data including the position of the feature area, the size of the feature area, the number of feature areas, identification information for identifying the captured image in which the feature area is detected, or the like, or compressed or encrypted into the text data. It may be data that has been processed. Then, the image processing apparatus 170 identifies captured images that satisfy various search conditions based on the position of the feature region, the size of the feature region, the number of feature regions, and the like included in the feature region information. Then, the image processing device 170 may decode the identified captured image and provide the decoded captured image to the display device 180.

このように、画像処理システム10によると、特徴領域を動画に対応づけて記録しているので、動画における所定の条件に適合する撮像画像を高速に検索、頭出しをすることができる。また、画像処理システム10によると、所定の条件に適合する撮像画像だけ復号することができるので、再生指示に即応して速やかに所定の条件に適合する部分動画を表示することができる。   As described above, according to the image processing system 10, since the characteristic region is recorded in association with the moving image, it is possible to quickly search and find a captured image that matches a predetermined condition in the moving image. Further, according to the image processing system 10, only a captured image that meets a predetermined condition can be decoded, so that a partial moving image that meets the predetermined condition can be displayed promptly in response to a reproduction instruction.

また、画像処理システム10によると、撮像画像を間引いて圧縮動画データを生成するので、通信ネットワーク110に送出する圧縮動画データのデータ量を低減することができる。一方で、画像処理システム10によると、間引かれた撮像画像から検出された特徴領域の情報も圧縮動画データに付帯して画像処理装置170に送信するので、画像処理装置170において特徴領域の位置をより精密に検出し直したり、特徴領域の画像をより詳細に解析したりすることが容易になる。   Further, according to the image processing system 10, the compressed moving image data is generated by thinning out the captured image, so that the data amount of the compressed moving image data transmitted to the communication network 110 can be reduced. On the other hand, according to the image processing system 10, the feature region information detected from the thinned captured image is also attached to the compressed moving image data and transmitted to the image processing device 170. Can be detected again more precisely, or the image of the feature region can be analyzed in more detail.

図2は、画像処理装置120のブロック構成の一例を示す。画像処理装置120は、画像取得部250および画像処理部200を備える。画像取得部250は、圧縮動画取得部201および圧縮動画伸張部202を有する。   FIG. 2 shows an example of a block configuration of the image processing apparatus 120. The image processing apparatus 120 includes an image acquisition unit 250 and an image processing unit 200. The image acquisition unit 250 includes a compressed moving image acquisition unit 201 and a compressed moving image expansion unit 202.

圧縮動画取得部201は、圧縮された動画を取得する。具体的には、圧縮動画取得部201は、撮像装置100が生成した、符号化された撮像動画データを取得する。圧縮動画伸張部202は、圧縮動画取得部201が取得した撮像動画データを伸張して、撮像動画に含まれる複数の撮像画像を生成する。具体的には、圧縮動画伸張部202は、圧縮動画取得部201が取得した、符号化された撮像動画データを復号して、撮像動画に含まれる複数の撮像画像を生成する。なお、撮像動画に含まれる撮像画像は、フレーム画像およびフィールド画像であってよい。このように、画像取得部250は、異なるタイミングで撮像された複数の撮像画像を取得する。   The compressed moving image acquisition unit 201 acquires a compressed moving image. Specifically, the compressed moving image acquisition unit 201 acquires encoded captured moving image data generated by the imaging device 100. The compressed moving image expansion unit 202 expands the captured moving image data acquired by the compressed moving image acquisition unit 201 and generates a plurality of captured images included in the captured moving image. Specifically, the compressed moving image decompression unit 202 decodes the encoded captured moving image data acquired by the compressed moving image acquisition unit 201, and generates a plurality of captured images included in the captured moving image. The captured image included in the captured moving image may be a frame image and a field image. As described above, the image acquisition unit 250 acquires a plurality of captured images captured at different timings.

画像処理部200は、圧縮動画伸張部202により生成された複数の撮像画像を含む撮像動画から特徴領域を検出して、検出した特徴領域の特徴に応じて当該撮像動画に圧縮処理を施して、画像処理装置170に出力する。以下に、画像処理部200の動作の一例を説明する。   The image processing unit 200 detects a feature region from a captured moving image including a plurality of captured images generated by the compressed moving image decompression unit 202, performs compression processing on the captured moving image according to the feature of the detected feature region, The image is output to the image processing apparatus 170. Hereinafter, an example of the operation of the image processing unit 200 will be described.

画像処理部200は、特徴領域検出部203、圧縮制御部210、画像選択部220、重要度算出部240、圧縮部230、対応付け処理部206、および出力部207を有する。特徴領域検出部203は、複数の撮像画像を含む動画から特徴領域を検出する。具体的には、特徴領域検出部203は、複数の撮像画像のそれぞれから特徴領域を検出する。なお、上記における撮像動画は、以下の説明における動画の一例であってよい。   The image processing unit 200 includes a feature region detection unit 203, a compression control unit 210, an image selection unit 220, an importance level calculation unit 240, a compression unit 230, an association processing unit 206, and an output unit 207. The feature region detection unit 203 detects a feature region from a moving image including a plurality of captured images. Specifically, the feature region detection unit 203 detects a feature region from each of the plurality of captured images. Note that the captured moving image described above may be an example of a moving image in the following description.

例えば、特徴領域検出部203は、動く物体を示すオブジェクトを含む領域を特徴領域として検出してよい。なお、特徴領域検出部203は、複数の撮像画像のそれぞれから、特徴の種類が異なる複数の特徴領域を検出してよい。なお、特徴の種類とは、人物と移動体等のように、オブジェクトの種類を指標にしてよい。オブジェクトの種類は、オブジェクトの形状またはオブジェクトの色の一致度に基づいて決定されてよい。このように、特徴領域検出部203は、複数の撮像画像から、含まれるオブジェクトの種類が異なる複数の特徴領域を検出してよい。   For example, the feature region detection unit 203 may detect a region including an object indicating a moving object as a feature region. Note that the feature region detection unit 203 may detect a plurality of feature regions having different types of features from each of the plurality of captured images. Note that the type of feature may be an index of the type of object such as a person and a moving object. The type of the object may be determined based on the degree of coincidence of the shape of the object or the color of the object. As described above, the feature region detection unit 203 may detect a plurality of feature regions having different types of included objects from a plurality of captured images.

例えば、特徴領域検出部203は、予め定められた形状パターンに予め定められた一致度以上の一致度で一致するオブジェクトを複数の撮像画像のそれぞれから抽出して、抽出したオブジェクトを含む撮像画像における領域を、特徴の種類が同じ特徴領域として検出してよい。なお、形状パターンは、特徴の種類毎に複数定められてよい。また、形状パターンの一例としては、人物の顔の形状パターンを例示することができる。なお、複数の人物毎に異なる顔のパターンが定められてよい。これにより、特徴領域検出部203は、異なる人物をそれぞれ含む異なる領域を、異なる特徴領域として検出することができる。   For example, the feature region detection unit 203 extracts an object that matches a predetermined shape pattern with a matching degree equal to or higher than a predetermined matching degree from each of the plurality of picked-up images, and in the picked-up image including the extracted object. The region may be detected as a feature region having the same feature type. Note that a plurality of shape patterns may be determined for each type of feature. As an example of the shape pattern, a shape pattern of a human face can be exemplified. Different face patterns may be determined for each of a plurality of persons. Thereby, the feature region detection unit 203 can detect different regions each including a different person as different feature regions.

特徴領域検出部203は、検出した特徴領域を示す情報を、画像選択部220、圧縮制御部210、および重要度算出部240に供給する。なお、特徴領域を示す情報とは、特徴領域の位置を示す特徴領域の座標情報、特徴領域の種類を示す種類情報、特徴領域が検出された撮像動画を識別する情報、および特徴領域の検出信頼度を含む。   The feature region detection unit 203 supplies information indicating the detected feature region to the image selection unit 220, the compression control unit 210, and the importance level calculation unit 240. Note that the information indicating the feature region includes the coordinate information of the feature region indicating the position of the feature region, the type information indicating the type of the feature region, the information identifying the captured moving image in which the feature region is detected, and the detection reliability of the feature region. Including degrees.

画像選択部220は、複数の撮像画像の中から、一部の撮像画像を選択する。具体的には、画像選択部220は、画像処理装置170に送信すべき一部の撮像画像を選択する。例えば、画像選択部220は、複数の撮像画像の中から、撮像画像の撮像時刻に応じて一部の撮像画像を選択してよい。例えば、画像選択部220は、予め定められた時間間隔で撮像された一部の撮像画像を選択してよい。   The image selection unit 220 selects some captured images from a plurality of captured images. Specifically, the image selection unit 220 selects some captured images to be transmitted to the image processing apparatus 170. For example, the image selection unit 220 may select some captured images from a plurality of captured images according to the imaging time of the captured image. For example, the image selection unit 220 may select some captured images captured at predetermined time intervals.

他にも、画像選択部220は、複数の撮像画像の中から、予め定められた条件に適合する一部の撮像画像を選択してよい。また、画像選択部220は、特徴領域検出部203が検出した特徴領域の画像内容が予め定められた条件に適合する一部の撮像画像を選択してよい。また、画像選択部220は、特徴領域検出部203が検出した特徴領域の数が予め定められた値より多い一部の撮像画像を選択してよい。   In addition, the image selection unit 220 may select a part of the captured images that meet a predetermined condition from a plurality of captured images. In addition, the image selection unit 220 may select some captured images in which the image content of the feature area detected by the feature area detection unit 203 meets a predetermined condition. In addition, the image selection unit 220 may select some captured images in which the number of feature regions detected by the feature region detection unit 203 is greater than a predetermined value.

重要度算出部240は、特徴領域検出部203が検出した複数の特徴領域のそれぞれの検出信頼度に基づいて、一部の撮像画像における複数の画像領域毎に、重要度を算出する。なお、重要度算出部240による重要度の算出方法については後に説明する。重要度算出部240は、算出した各画像領域の重要度を示す情報を圧縮制御部210に供給する。   The importance calculation unit 240 calculates the importance for each of a plurality of image areas in a part of the captured images based on the detection reliability of each of the plurality of feature areas detected by the feature area detection unit 203. The importance calculation method by the importance calculation unit 240 will be described later. The importance calculation unit 240 supplies information indicating the calculated importance of each image region to the compression control unit 210.

圧縮制御部210は、特徴領域検出部203から取得した特徴領域を示す情報および重要度算出部240から取得した重要度を示す情報に基づいて、特徴領域に応じて圧縮部230による動画の圧縮処理を制御する。圧縮部230は、特徴領域検出部203により検出された特徴領域以外の領域、または重要度が予め定められた値より大きい領域以外の領域の画質を低減することによって、画像選択部220によって選択された一部の撮像画像を圧縮する。なお、圧縮部230は、圧縮された複数の撮像画像を複数含む圧縮動画を生成する。なお、圧縮部230のより具体的な圧縮動作については、後に説明する。   Based on the information indicating the feature area acquired from the feature area detection unit 203 and the information indicating the importance level acquired from the importance level calculation unit 240, the compression control unit 210 performs a video compression process by the compression unit 230 according to the feature area. To control. The compression unit 230 is selected by the image selection unit 220 by reducing the image quality of a region other than the feature region detected by the feature region detection unit 203 or a region other than a region whose importance is greater than a predetermined value. Compress some captured images. Note that the compression unit 230 generates a compressed moving image including a plurality of compressed captured images. A more specific compression operation of the compression unit 230 will be described later.

対応付け処理部206は、一部の撮像画像以外の撮像画像から検出された特徴領域を特定する情報を、一部の撮像画像に対応づける。具体的には、対応付け処理部206は、一部の撮像画像以外の撮像画像から検出された特徴領域を特定する情報を、一部の撮像画像を動画構成画像として含む圧縮動画に対応づける。なお、対応付け処理部206は、一部の撮像画像以外の撮像画像から検出された特徴領域を特定する情報および一部の撮像画像から検出された特徴領域を特定する情報を、一部の撮像画像に対応づけてよい。   The association processing unit 206 associates information for identifying the feature area detected from the captured image other than the partially captured image with the partially captured image. Specifically, the association processing unit 206 associates information for specifying a feature area detected from captured images other than some captured images with a compressed moving image including some captured images as moving image constituent images. Note that the association processing unit 206 captures information for specifying a feature region detected from a captured image other than a part of the captured image and information for specifying a feature region detected from a part of the captured image. It may be associated with an image.

なお、特徴領域を特定する情報は、一部の撮像画像以外の撮像画像から検出された特徴領域の位置を示す情報を含んでよい。また、特徴領域を特定する情報は、一部の撮像画像以外の撮像画像が撮像されたタイミングを示す情報を含んでよい。また、特徴領域を特定する情報は、一部の撮像画像以外の撮像画像から検出された特徴領域の大きさ(例えば、面積)を示す情報を含んでよい。   Note that the information specifying the feature region may include information indicating the position of the feature region detected from the captured image other than some captured images. Further, the information specifying the feature region may include information indicating the timing at which captured images other than some captured images are captured. In addition, the information specifying the feature region may include information indicating the size (for example, area) of the feature region detected from the captured image other than some captured images.

出力部207は、対応付け処理部206によって対応付けされた一部の撮像画像以外の撮像画像から検出された特徴領域を特定する情報を、画像処理装置170に出力する。このように、出力部207は、一部の撮像画像以外の撮像画像から検出された特徴領域を特定する情報および一部の撮像画像から検出された特徴領域を特定する情報を、一部の撮像画像に対応づけて出力する。例えば、出力部207は、一部の撮像画像以外の撮像画像から検出された特徴領域の位置を示す情報、一部の撮像画像以外の撮像画像が撮像されたタイミングを示す情報、あるいは一部の撮像画像以外の撮像画像から検出された特徴領域の大きさを示す情報を、一部の撮像画像に対応づけて出力することができる。   The output unit 207 outputs information specifying a feature region detected from captured images other than some of the captured images associated by the association processing unit 206 to the image processing apparatus 170. As described above, the output unit 207 captures a part of information that specifies a feature region detected from a captured image other than a part of the captured image and information that specifies a feature region detected from the part of the captured image. Output in association with the image. For example, the output unit 207 includes information indicating the position of a feature region detected from a captured image other than some captured images, information indicating the timing at which captured images other than some captured images are captured, or some Information indicating the size of the feature region detected from the captured image other than the captured image can be output in association with a part of the captured images.

なお、対応付け処理部206による対応付け動作の他の例を以下に説明する。対応付け処理部206は、複数の撮像画像から検出された複数の特徴領域を含む領域を示す情報を、一部の撮像画像に対応づける。具体的には、対応付け処理部206は、複数の撮像画像から検出された複数の特徴領域を含む領域を示す情報を、一部の撮像画像を動画構成画像として含む圧縮動画に対応づける。なお、対応付け処理部206は、複数の撮像画像から検出された複数の特徴領域の少なくとも一部を含む領域を示す情報を、一部の撮像画像に対応づけてよい。   Another example of the association operation by the association processing unit 206 will be described below. The association processing unit 206 associates information indicating a region including a plurality of feature regions detected from a plurality of captured images with a part of the captured images. Specifically, the association processing unit 206 associates information indicating a region including a plurality of feature regions detected from a plurality of captured images with a compressed moving image including a part of the captured images as a moving image constituent image. Note that the association processing unit 206 may associate information indicating a region including at least a part of a plurality of feature regions detected from a plurality of captured images with a part of the captured images.

なお、複数の撮像画像から検出された複数の特徴領域を含む領域を示す情報は、複数の撮像画像から検出された複数の特徴領域を包含する領域を示す情報を含んでよい。また、複数の撮像画像から検出された複数の特徴領域を含む領域を示す情報は、複数の撮像画像から検出された複数の特徴領域の集合領域を示す情報を含んでよい。また、複数の撮像画像から検出された複数の特徴領域を含む領域を示す情報は、重要度算出部240が算出した重要度が予め定められた値より大きい画像領域を示す情報を含んでよい。   Note that the information indicating a region including a plurality of feature regions detected from a plurality of captured images may include information indicating a region including a plurality of feature regions detected from a plurality of captured images. Further, the information indicating the area including the plurality of feature areas detected from the plurality of captured images may include information indicating the set area of the plurality of feature areas detected from the plurality of captured images. Further, the information indicating a region including a plurality of feature regions detected from a plurality of captured images may include information indicating an image region whose importance calculated by the importance calculation unit 240 is larger than a predetermined value.

なお、重要度算出部240は、特徴領域検出部203が検出した複数の特徴領域のそれぞれ検出信頼度に基づいて、複数の撮像画像から検出された複数の特徴領域の集合領域における複数の画像領域毎に、重要度を算出する。例えば、重要度算出部240は、集合領域における複数の画像領域毎に当該画像領域を含む特徴領域の検出信頼度を加算した加算値を算出して、当該加算値に基づいて集合領域における複数の画像領域毎に重要度を算出する。例えば、重要度算出部240は、加算値が大きいほどより大きい重要度を算出してよい。また、重要度算出部240は、加算値に応じて予め定められた重要度を、複数の画像領域毎に算出してよい。   Note that the importance level calculation unit 240 has a plurality of image regions in a set region of a plurality of feature regions detected from a plurality of captured images based on the detection reliability of the plurality of feature regions detected by the feature region detection unit 203. The importance is calculated every time. For example, the importance calculation unit 240 calculates an addition value obtained by adding the detection reliability of the feature area including the image area for each of the plurality of image areas in the collection area, and a plurality of values in the collection area are calculated based on the addition value. Importance is calculated for each image area. For example, the importance calculation unit 240 may calculate a greater importance as the added value is larger. Further, the importance calculation unit 240 may calculate the importance determined in advance according to the added value for each of a plurality of image areas.

このようにして、出力部207は、複数の撮像画像から検出された複数の特徴領域を含む領域を示す情報を、一部の撮像画像に対応づけて出力する。より具体的には、出力部207は、複数の撮像画像から検出された複数の特徴領域を包含する領域を示す情報、複数の撮像画像から検出された複数の特徴領域の集合領域を示す情報、あるいは集合領域を示す情報および重要度算出部240が算出した重要度を、一部の撮像画像に対応づけて出力することができる。   In this manner, the output unit 207 outputs information indicating a region including a plurality of feature regions detected from a plurality of captured images in association with a part of the captured images. More specifically, the output unit 207 includes information indicating a region including a plurality of feature regions detected from a plurality of captured images, information indicating a set region of a plurality of feature regions detected from the plurality of captured images, Alternatively, the information indicating the collection area and the importance calculated by the importance calculation unit 240 can be output in association with some captured images.

なお、対応付け処理部206は、一部の撮像画像以外の撮像画像から検出された特徴領域の特徴の種類を示す情報を、一部の撮像画像に対応づけてもよい。また、対応付け処理部206は、一部の撮像画像以外の撮像画像から検出された特徴領域に含まれるオブジェクトの種類を示す情報を、一部の撮像画像に対応づけてもよい。このようにして、出力部207は、一部の撮像画像以外の撮像画像から検出された特徴領域の特徴の種類を示す情報、または一部の撮像画像以外の撮像画像から検出された特徴領域に含まれるオブジェクトの種類を示す情報を、一部の撮像画像に対応づけて出力することができる。   Note that the association processing unit 206 may associate information indicating the feature type of the feature region detected from the captured image other than the partially captured image with the partially captured image. Further, the association processing unit 206 may associate information indicating the type of the object included in the feature region detected from the captured image other than the partially captured image with the partially captured image. In this way, the output unit 207 outputs information indicating the type of feature in the feature area detected from the captured image other than the part of the captured image, or the feature area detected from the captured image other than the part of the captured image. Information indicating the types of objects included can be output in association with some captured images.

図3は、圧縮部230のブロック構成の一例を示す。圧縮部230は、画像分割部232、複数の固定値化部234a−c(以下、固定値化部234と総称する場合がある。)、および複数の圧縮処理部236a−d(以下、圧縮処理部236と総称する場合がある。)を有する。圧縮部230は、以下に説明するように、特徴領域と特徴領域以外の領域とを異なる画質で圧縮する。   FIG. 3 shows an example of a block configuration of the compression unit 230. The compression unit 230 includes an image dividing unit 232, a plurality of fixed value conversion units 234a-c (hereinafter may be collectively referred to as a fixed value conversion unit 234), and a plurality of compression processing units 236a-d (hereinafter referred to as compression processing). Part 236 in some cases). As will be described below, the compression unit 230 compresses the feature region and the region other than the feature region with different image quality.

なお、図3、図4、および図6の説明における"複数の撮像画像"は、圧縮部230による圧縮対象の撮像動画として、画像選択部220から圧縮部230に供給された撮像画像であってよい。つまり、本図の以下の説明における"複数の撮像画像"は、画像選択部220によって選択された一部の撮像画像であってよい。また、以下の説明における"特徴領域"は、画像選択部220によって選択された一部の撮像画像から検出された特徴領域と、当該一部の撮像画像以外の撮像画像から検出された特徴領域とを含む領域であってよい。例えば、以下の説明における"特徴領域"は、上述した包含領域または集合領域であってよい。   Note that the “plurality of captured images” in the description of FIGS. 3, 4, and 6 are captured images supplied from the image selection unit 220 to the compression unit 230 as captured moving images to be compressed by the compression unit 230. Good. That is, “a plurality of captured images” in the following description of this figure may be a part of the captured images selected by the image selection unit 220. In addition, the “feature region” in the following description is a feature region detected from a part of the captured image selected by the image selection unit 220, and a feature region detected from a captured image other than the part of the captured image. It may be a region including For example, the “feature region” in the following description may be the inclusion region or the collective region described above.

画像分割部232は、複数の撮像画像を、特徴領域と、特徴領域以外の背景領域とに分割する。より具体的には、画像分割部232は、複数の撮像画像を、複数の特徴領域のそれぞれと、特徴領域以外の背景領域とに分割する。このように、画像分割部232は、複数の撮像画像のそれぞれを、特徴領域と背景領域とに分割する。そして、圧縮処理部236は、特徴領域の画像である特徴領域画像と背景領域の画像である背景領域画像とを、それぞれ異なる強度で圧縮する。具体的には、圧縮処理部236は、特徴領域画像を複数含む特徴領域動画と背景領域画像を複数含む背景領域動画とを、それぞれ異なる強度で圧縮する。   The image dividing unit 232 divides a plurality of captured images into a feature region and a background region other than the feature region. More specifically, the image dividing unit 232 divides a plurality of captured images into each of a plurality of feature areas and a background area other than the feature areas. As described above, the image dividing unit 232 divides each of the plurality of captured images into the feature region and the background region. Then, the compression processing unit 236 compresses the feature region image, which is the feature region image, and the background region image, which is the background region image, with different strengths. Specifically, the compression processing unit 236 compresses a feature area moving image including a plurality of feature area images and a background area moving image including a plurality of background area images with different strengths.

具体的には、画像分割部232は、複数の撮像画像を分割することにより、複数の特徴の種類毎に特徴領域動画を生成する。そして、固定値化部234は、特徴の種類毎に生成された複数の特徴領域動画に含まれる特徴領域画像のそれぞれについて、それぞれの特徴の種類の特徴領域以外の領域の画素値を固定値化する。具体的には、固定値化部234は、特徴領域以外の領域の画素値を予め定められた画素値にする。そして、圧縮処理部236は、特徴の種類毎に、複数の特徴領域動画を圧縮する。例えば、圧縮処理部236は、特徴の種類毎に、複数の特徴領域動画をMPEG圧縮する。   Specifically, the image dividing unit 232 generates a feature area moving image for each of a plurality of feature types by dividing a plurality of captured images. Then, the fixed value unit 234 fixes the pixel values of the regions other than the feature regions of the respective feature types for each of the feature region images included in the plurality of feature region moving images generated for each feature type. To do. Specifically, the fixed value converting unit 234 sets pixel values in regions other than the feature region to predetermined pixel values. Then, the compression processing unit 236 compresses a plurality of feature area moving images for each feature type. For example, the compression processing unit 236 performs MPEG compression on a plurality of feature area moving images for each feature type.

固定値化部234a、固定値化部234b、および固定値化部234cは、それぞれ第1の特徴の種類の特徴領域動画、第2の特徴の種類の特徴領域動画、および第3の特徴の種類の特徴領域動画を固定値化する。そして、圧縮処理部236a、圧縮処理部236b、および圧縮処理部236cは、第1の特徴の種類の特徴領域動画、第2の特徴の種類の特徴領域動画、および第3の特徴の種類の特徴領域動画を圧縮する。   The fixed value unit 234a, the fixed value unit 234b, and the fixed value unit 234c are a feature region moving image of the first feature type, a feature region moving image of the second feature type, and a third feature type, respectively. The feature area video of is fixed. Then, the compression processing unit 236a, the compression processing unit 236b, and the compression processing unit 236c are the feature region moving image of the first feature type, the feature region moving image of the second feature type, and the feature of the third feature type. Compress area video.

なお、圧縮処理部236a−cは、特徴の種類に応じて予め定められた強度で特徴領域動画を圧縮する。例えば、圧縮処理部236は、特徴の種類に応じて予め定められた異なる解像度に特徴領域動画を変換して、変換した特徴領域動画を圧縮してよい。他にも、圧縮処理部236は、MPEG符号化により特徴領域動画を圧縮する場合には、特徴の種類に応じて予め定められた異なる量子化パラメータで特徴領域動画を圧縮してよい。   Note that the compression processing units 236a-c compress the feature area moving image with a predetermined strength according to the type of feature. For example, the compression processing unit 236 may convert the feature area moving image to a different resolution determined in advance according to the type of the feature, and compress the converted feature area moving image. In addition, when compressing the feature region moving image by MPEG encoding, the compression processing unit 236 may compress the feature region moving image with different quantization parameters determined in advance according to the feature type.

なお、圧縮処理部236dは、背景領域動画を圧縮する。なお、圧縮処理部236dは、圧縮処理部236a−cのいずれによる強度より高い強度で背景領域動画を圧縮してよい。圧縮処理部236によって圧縮された特徴領域動画および背景領域動画は、対応付け処理部206に供給される。   The compression processing unit 236d compresses the background area moving image. Note that the compression processing unit 236d may compress the background region moving image with a strength higher than the strength of any of the compression processing units 236a-c. The feature area moving image and the background area moving image compressed by the compression processing unit 236 are supplied to the association processing unit 206.

なお、特徴領域以外の領域が固定値化部234によって固定値化されているので、圧縮処理部236がMPEG符号化等によって予測符号化する場合に、特徴領域以外の領域において予測画像との間の画像の差分量を著しく低減することができる。したがって、特徴領域動画の圧縮率を著しく高めることができる。   Since regions other than the feature region have been fixed values by the fixed value unit 234, when the compression processing unit 236 performs predictive encoding by MPEG encoding or the like, the region other than the feature region may be connected to the predicted image. The amount of difference between the images can be significantly reduced. Therefore, the compression rate of the feature area moving image can be significantly increased.

図4は、画像処理装置170のブロック構成の一例を示す。画像処理装置170は、圧縮画像取得部301、対応付け解析部302、伸張制御部310、伸張部320、合成部330、特徴領域処理部350、および出力部340を備える。圧縮画像取得部301は、圧縮部230により圧縮された撮像画像を含む圧縮動画を取得する。具体的には、圧縮画像取得部301は、複数の特徴領域動画および背景領域動画を含む圧縮動画を取得する。より具体的には、圧縮画像取得部301は、特徴領域情報が付帯された圧縮動画を取得する。   FIG. 4 shows an example of a block configuration of the image processing apparatus 170. The image processing apparatus 170 includes a compressed image acquisition unit 301, a correspondence analysis unit 302, a decompression control unit 310, a decompression unit 320, a composition unit 330, a feature region processing unit 350, and an output unit 340. The compressed image acquisition unit 301 acquires a compressed moving image including the captured image compressed by the compression unit 230. Specifically, the compressed image acquisition unit 301 acquires a compressed moving image including a plurality of feature area moving images and a background area moving image. More specifically, the compressed image acquisition unit 301 acquires a compressed moving image with feature area information attached thereto.

そして、対応付け解析部302は、複数の特徴領域動画および背景領域動画と特徴領域情報とに分離して、複数の特徴領域動画および背景領域動画を伸張部320に供給する。また、対応付け解析部302は、特徴領域情報を解析して、特徴領域の位置および特徴の種類を伸張制御部310および特徴領域処理部350に供給する。伸張制御部310は、対応付け解析部302から取得した特徴領域の位置および特徴の種類に応じて、伸張部320による伸張処理を制御する。例えば、伸張制御部310は、特徴領域の位置および特徴の種類に応じて圧縮部230が動画の各領域を圧縮した圧縮方式に応じて、伸張部320に圧縮動画が示す動画の各領域を伸張させる。   Then, the association analysis unit 302 separates the plurality of feature area videos and background area videos and feature area information, and supplies the plurality of feature area videos and background area videos to the decompression unit 320. The association analysis unit 302 also analyzes the feature region information and supplies the feature region position and the feature type to the extension control unit 310 and the feature region processing unit 350. The decompression control unit 310 controls the decompression processing by the decompression unit 320 according to the position of the feature region and the feature type acquired from the association analysis unit 302. For example, the decompression control unit 310 decompresses each region of the moving image indicated by the compressed moving image to the decompressing unit 320 according to the compression method in which the compression unit 230 compresses each region of the moving image according to the position of the feature region and the type of feature. Let

以下に、伸張部320が有する各構成要素の動作を説明する。伸張部320は、復号器322a−d(以下、復号器322と総称する。)、合成部330、および出力部340を有する。復号器322は、符号化された複数の特徴領域動画および背景領域動画のいずれかを復号する。具体的には、復号器322a、復号器322b、復号器322c、および復号器322dは、それぞれ第1特徴領域動画、第2特徴領域動画、第3特徴領域動、および背景領域動画を復号する。   Hereinafter, the operation of each component included in the extension unit 320 will be described. The decompression unit 320 includes decoders 322a-d (hereinafter collectively referred to as decoders 322), a synthesis unit 330, and an output unit 340. The decoder 322 decodes one of the plurality of encoded characteristic area moving images and background area moving images. Specifically, the decoder 322a, the decoder 322b, the decoder 322c, and the decoder 322d decode the first feature region moving image, the second feature region moving image, the third feature region moving image, and the background region moving image, respectively.

合成部330は、伸張部320によって伸張された複数の特徴領域動画および背景領域動画を合成して、1つの表示動画を生成する。具体的には、合成部330は、背景領域動画に含まれる撮像画像に、複数の特徴領域動画に含まれる撮像画像上の特徴領域の画像を合成することによって、1つの表示動画を生成する。合成部330によって生成された表示動画は、特徴領域処理部350に供給される。   The synthesizing unit 330 synthesizes a plurality of feature area moving images and background area moving images expanded by the expanding unit 320 to generate one display moving image. Specifically, the combining unit 330 generates one display moving image by combining the image of the feature region on the captured image included in the plurality of feature region moving images with the captured image included in the background region moving image. The display moving image generated by the combining unit 330 is supplied to the feature region processing unit 350.

特徴領域処理部350は、表示動画において、特徴領域に関連する画像処理または特徴領域の画像を解析する。特徴領域処理部350により処理された表示動画は、出力部340に供給される。出力部340は、対応付け解析部302から取得した特徴領域情報および表示動画を表示装置180または画像DB175に出力する。なお、画像DB175は、特徴領域情報が示す特徴領域の位置、特徴領域の特徴の種類、特徴領域の数を、表示動画に含まれる撮像画像を識別する情報に対応づけて、ハードディスク等の不揮発性の記録媒体に記録してよい。   The feature region processing unit 350 analyzes image processing related to the feature region or an image of the feature region in the display moving image. The display moving image processed by the feature area processing unit 350 is supplied to the output unit 340. The output unit 340 outputs the feature area information and the display moving image acquired from the association analysis unit 302 to the display device 180 or the image DB 175. The image DB 175 associates the position of the feature region indicated by the feature region information, the feature type of the feature region, and the number of feature regions with the information for identifying the captured image included in the display moving image, and the non-volatile memory such as a hard disk. May be recorded on the recording medium.

図5は、特徴領域処理部350のブロック構成の一例を示す。特徴領域処理部350は、特徴領域画像選択部352、特徴領域特定部354、信頼度算出部356、関連性算出部358、および画像処理部360を有する。   FIG. 5 shows an example of a block configuration of the feature area processing unit 350. The feature region processing unit 350 includes a feature region image selection unit 352, a feature region specification unit 354, a reliability calculation unit 356, a relevance calculation unit 358, and an image processing unit 360.

特徴領域画像選択部352は、合成部330から供給された表示動画に含まれる複数の撮像画像を取得する。このように、特徴領域画像選択部352は、一部の撮像画像以外の撮像画像から検出された特徴領域を示す情報が対応づけて出力された一部の撮像画像を、特徴領域を有する撮像画像として選択する。このように、特徴領域画像選択部352により一部の撮像画像以外の撮像画像から特徴領域が検出されている撮像画像を選択される。以後の処理においては、それらの特徴領域の情報を用いて、表示動画に対して処理が施される。   The feature area image selection unit 352 acquires a plurality of captured images included in the display moving image supplied from the synthesis unit 330. As described above, the feature region image selection unit 352 selects a part of the captured image output by associating the information indicating the feature region detected from the captured image other than the part of the captured image with the feature region. Choose as. In this manner, the feature region image selection unit 352 selects a captured image in which a feature region is detected from captured images other than some captured images. In the subsequent processing, the display moving image is processed using the information of the feature areas.

特徴領域特定部354、信頼度算出部356、および関連性算出部358は、特徴領域画像選択部352によって選択された撮像画像および対応付け解析部302から供給される特徴領域の情報を取得する。特徴領域特定部354は、特徴領域画像選択部352によって選択された撮像画像に対応づけて出力された一部の撮像画像以外の撮像画像から検出された特徴領域の位置を示す情報に基づいて、当該一部の撮像画像から特徴領域を特定する。例えば、特徴領域特定部354は、一部の撮像画像以外の撮像画像から検出された特徴領域の位置の近傍の領域から、当該一部の撮像画像における特徴領域を特定してよい。   The feature region specifying unit 354, the reliability calculation unit 356, and the relevance calculation unit 358 acquire the captured image selected by the feature region image selection unit 352 and the feature region information supplied from the association analysis unit 302. The feature area specifying unit 354 is based on information indicating the position of the feature area detected from the captured image other than a part of the captured images output in association with the captured image selected by the feature area image selection unit 352. A feature region is specified from the part of the captured image. For example, the feature region specifying unit 354 may specify the feature region in the part of the captured image from the region near the position of the feature region detected from the captured image other than the part of the captured image.

このように、特徴領域特定部354は、出力部207から一部の撮像画像に対応づけて出力された一部の撮像画像以外の撮像画像から検出された特徴領域の位置を示す情報に基づいて、当該一部の撮像画像から特徴領域を特定することができる。これにより、画像処理装置170は、より高い精度で特徴領域を検出し直すことができる。   As described above, the feature region specifying unit 354 is based on the information indicating the position of the feature region detected from the captured image other than the part of the captured image output in association with the part of the captured image from the output unit 207. The feature region can be specified from the part of the captured images. As a result, the image processing apparatus 170 can re-detect the feature region with higher accuracy.

なお、特徴領域特定部354は、対応付け解析部302から集合領域を示す情報を取得して、一部の撮像画像における当該集合領域内から特徴領域を検出し直してもよい。このように、特徴領域特定部354は、一部の撮像画像に対応づけて出力された集合領域を示す情報に基づいて、当該一部の撮像画像から特徴領域を特定することができる。このように、画像処理装置170は、一部の撮像画像以外の領域から検出された特徴領域が示す画像領域からも、特徴領域を特定することができる。このため、画像処理システム10によると、一部の撮像画像から特徴領域を検出し損ねる確率を低減しつつ、画像処理装置170における特徴領域を特定する特定対象領域を狭めることができる。このため、画像処理装置170は、高速かつ高精度で特徴領域を特定することができる。   Note that the feature region specifying unit 354 may acquire information indicating the collection region from the association analysis unit 302 and re-detect the feature region from within the collection region in some captured images. As described above, the feature region specifying unit 354 can specify the feature region from the part of the captured images based on the information indicating the collection region output in association with the part of the captured images. As described above, the image processing apparatus 170 can specify a feature region also from an image region indicated by a feature region detected from a region other than some captured images. Therefore, according to the image processing system 10, it is possible to narrow the specific target region for specifying the feature region in the image processing device 170 while reducing the probability of failing to detect the feature region from some captured images. For this reason, the image processing apparatus 170 can specify the feature region at high speed and with high accuracy.

信頼度算出部356は、特徴領域画像選択部352によって選択された撮像画像に対応づけて出力された一部の撮像画像以外の撮像画像から検出された特徴領域の位置を示す情報に基づいて、一部の撮像画像における特徴領域の検出信頼度を算出する。例えば、信頼度算出部356は、一部の撮像画像以外の撮像画像から検出された特徴領域の位置との間の位置の差が予め定められた値より小さい一部の撮像画像における特徴領域の検出信頼度を、より高く算出してよい。   The reliability calculation unit 356 is based on information indicating the position of the feature region detected from the captured image other than the part of the captured image output in association with the captured image selected by the feature region image selection unit 352. The detection reliability of the feature region in some captured images is calculated. For example, the reliability calculation unit 356 has a feature area in a part of the captured image in which the position difference between the position of the feature area detected from the captured image other than the part of the captured image is smaller than a predetermined value. The detection reliability may be calculated higher.

例えば、信頼度算出部356は、一部の撮像画像以外の撮像画像から検出された特徴領域との間で、予め定められた値より高い位置の相関性を有する位置に検出されている一部の撮像画像における特徴領域の検出信頼度を、より高く算出してよい。このように、信頼度算出部356は、出力部207から一部の撮像画像に対応づけて出力された一部の撮像画像以外の撮像画像から検出された特徴領域の位置を示す情報に基づいて、一部の撮像画像における特徴領域の検出信頼度を算出することができる。これにより、画像処理装置170は、一部の撮像画像において検出された特徴領域の確からしさを再確認することができる。   For example, the reliability calculation unit 356 detects a part detected at a position having a correlation higher than a predetermined value with a feature region detected from a captured image other than a part of the captured image. The detection reliability of the feature region in the captured image may be calculated higher. As described above, the reliability calculation unit 356 is based on the information indicating the position of the feature region detected from the captured image other than the partial captured image output from the output unit 207 in association with the partial captured image. The detection reliability of the feature region in a part of the captured images can be calculated. Thereby, the image processing apparatus 170 can reconfirm the probability of the feature region detected in a part of the captured images.

関連性算出部358は、特徴領域画像選択部352によって選択された撮像画像に対応づけて出力された一部の撮像画像以外の撮像画像から検出された特徴領域の位置を示す情報に基づいて、異なる一部の撮像画像から検出された特徴領域の関連性を算出する。例えば、関連性算出部358は、異なる一部の撮像画像に対応づけて出力された特徴領域の位置の連続性がより高い場合に、より高い特徴領域の関連性を算出する。また、関連性算出部358は、異なる一部の撮像画像の間において、当該異なる一部の撮像画像に対応づけて出力された特徴領域の位置が示す特徴領域の移動方向の一致度が予め定められた値より大きい場合に、より高い特徴領域の関連性を算出してよい。   The relevance calculation unit 358 is based on information indicating the position of the feature region detected from the captured image other than the part of the captured image output in association with the captured image selected by the feature region image selection unit 352. Relevance of feature regions detected from different captured images is calculated. For example, the relevance calculation unit 358 calculates the relevance of a higher feature region when the continuity of the position of the feature region output in association with a part of different captured images is higher. In addition, the relevance calculation unit 358 determines in advance the degree of coincidence of the moving directions of the feature areas indicated by the positions of the feature areas output in association with the different partial captured images. If it is greater than the given value, the relevance of the higher feature area may be calculated.

このように、関連性算出部358は、出力部207から一部の撮像画像に対応づけて出力された一部の撮像画像以外の撮像画像から検出された特徴領域の位置を示す情報に基づいて、異なる一部の撮像画像から検出された特徴領域の関連性を算出する。このため、画像処理装置170は、表示動画に含まれる異なる撮像画像において同じ移動体が検出されている特徴領域を、より高い精度で特定することができる。   As described above, the relevance calculation unit 358 is based on the information indicating the position of the feature region detected from the captured image other than the part of the captured image output in association with the part of the captured image from the output unit 207. Then, the relevance of the feature areas detected from different part of the captured images is calculated. For this reason, the image processing apparatus 170 can specify the feature region in which the same moving body is detected in different captured images included in the display moving image with higher accuracy.

画像処理部360は、特徴領域特定部354が特定した特徴領域の情報、信頼度算出部356が算出した検出信頼度、および関連性算出部358が算出した関連性を取得する。画像処理部360は、特徴領域特定部354が特定した特徴領域を強調する画像処理を表示動画に施してよい。例えば、画像処理部360は、特徴領域特定部354が特定した特徴領域を示す枠などのマーカを、表示動画に重畳してよい。なお、画像処理部360は、特徴領域特定部354が特定した特徴領域を、信頼度算出部356が算出した検出信頼度がより高いほどより強調する画像処理を、表示動画に施してよい。   The image processing unit 360 acquires information on the feature region specified by the feature region specifying unit 354, the detection reliability calculated by the reliability calculation unit 356, and the relevance calculated by the relevance calculation unit 358. The image processing unit 360 may perform image processing for emphasizing the feature region specified by the feature region specifying unit 354 on the display moving image. For example, the image processing unit 360 may superimpose a marker such as a frame indicating the feature region specified by the feature region specifying unit 354 on the display moving image. Note that the image processing unit 360 may perform image processing for emphasizing the feature region identified by the feature region identifying unit 354 as the detection reliability calculated by the reliability calculation unit 356 is higher on the display moving image.

また、画像処理部360は、関連性算出部358が算出した関連性が予め定められた値より高い特徴領域の組と、他の特徴領域の組とを視覚的に区別することができる上記マーカを、表示動画に重畳してよい。例えば、画像処理部360は、関連性が予め定められた値より高い特徴領域の組を示すマーカとしての同色のマーカを、表示動画に重畳させてよい。また、画像処理部360は、異なる特徴領域の組を示すマーカとしての異なる色のマーカを、表示動画に重畳してよい。画像処理部360は、画像処理を施した表示動画を出力部340に供給する。   In addition, the image processing unit 360 can visually distinguish a set of feature areas whose relevance calculated by the relevance calculation unit 358 is higher than a predetermined value from a set of other feature areas. May be superimposed on the display video. For example, the image processing unit 360 may superimpose a marker of the same color as a marker indicating a set of feature areas whose relevance is higher than a predetermined value on the display moving image. In addition, the image processing unit 360 may superimpose different color markers as markers indicating different sets of feature regions on the display moving image. The image processing unit 360 supplies the display moving image subjected to the image processing to the output unit 340.

図6は、圧縮部230の他のブロック構成の一例を示す。本構成における圧縮部230は、特徴の種類に応じた空間スケーラブルな符号化処理によって複数の撮像画像を圧縮する。   FIG. 6 shows an example of another block configuration of the compression unit 230. The compression unit 230 in this configuration compresses a plurality of captured images by a spatial scalable encoding process corresponding to the type of feature.

本構成における圧縮部230は、画質変換部510、差分処理部520、および符号化部530を有する。差分処理部520は、複数の階層間差分処理部522a−d(以下、階層間差分処理部522と総称する。)を含む。符号化部530は、複数の符号器532a−d(以下、符号器532と総称する。)を含む。   The compression unit 230 in this configuration includes an image quality conversion unit 510, a difference processing unit 520, and an encoding unit 530. The difference processing unit 520 includes a plurality of inter-layer difference processing units 522a-d (hereinafter collectively referred to as inter-layer difference processing units 522). Encoding section 530 includes a plurality of encoders 532a-d (hereinafter collectively referred to as encoders 532).

画質変換部510は、画像選択部220から複数の撮像画像を取得する。また、画質変換部510は、特徴領域検出部203が検出した特徴領域を特定する情報および特徴領域の特徴の種類を特定する情報を取得する。そして、画質変換部510は、撮像画像を複製することにより、特徴領域の特徴の種類の数の撮像画像を生成する。そして、画質変換部510は、生成した撮像画像を、特徴の種類に応じた解像度の画像に変換する。   The image quality conversion unit 510 acquires a plurality of captured images from the image selection unit 220. In addition, the image quality conversion unit 510 acquires information specifying the feature region detected by the feature region detection unit 203 and information specifying the type of feature in the feature region. Then, the image quality conversion unit 510 duplicates the captured image, and generates captured images of the number of types of features in the feature area. Then, the image quality conversion unit 510 converts the generated captured image into an image having a resolution corresponding to the type of feature.

例えば、画質変換部510は、背景領域に応じた解像度に変換された撮像画像(以後、低解像度画像と呼ぶ。)、第1の特徴の種類に応じた第1解像度に変換された撮像画像(第1解像度画像と呼ぶ。)、第2の特徴の種類に応じた第2解像度に変換された撮像画像(第2解像度画像と呼ぶ。)、および第3の特徴の種類に応じた第3解像度に変換された撮像画像(第3解像度画像と呼ぶ。)を生成する。なお、ここでは、第1解像度画像は低解像度画像より解像度が高く、第2解像度画像は第1解像度画像より解像度が高く、第3解像度画像は第2解像度画像より解像度が高いとする。   For example, the image quality conversion unit 510 has a captured image converted to a resolution corresponding to the background area (hereinafter referred to as a low resolution image), and a captured image converted to the first resolution corresponding to the type of the first feature ( Called a first resolution image), a captured image converted to a second resolution corresponding to the second feature type (referred to as a second resolution image), and a third resolution corresponding to the third feature type. A captured image (referred to as a third resolution image) converted to is generated. Here, it is assumed that the first resolution image has a higher resolution than the low resolution image, the second resolution image has a higher resolution than the first resolution image, and the third resolution image has a higher resolution than the second resolution image.

そして、画質変換部510は、低解像度画像、第1解像度画像、第2解像度画像、および第3解像度画像を、それぞれ階層間差分処理部522d、階層間差分処理部522a、階層間差分処理部522b、および階層間差分処理部522cに供給する。なお、画質変換部510は、複数の撮像画像のそれぞれについて上記の画質変換処理することにより、階層間差分処理部522のそれぞれに動画を供給する。   Then, the image quality conversion unit 510 converts the low resolution image, the first resolution image, the second resolution image, and the third resolution image into the inter-layer difference processing unit 522d, the inter-layer difference processing unit 522a, and the inter-layer difference processing unit 522b, respectively. And to the inter-layer difference processing unit 522c. The image quality conversion unit 510 supplies a moving image to each of the inter-layer difference processing units 522 by performing the above-described image quality conversion processing on each of the plurality of captured images.

なお、画質変換部510は、特徴領域の特徴の種類に応じて、階層間差分処理部522のそれぞれに供給する動画のフレームレートを変換してよい。例えば、画質変換部510は、階層間差分処理部522aに供給する動画より低いフレームレートの動画を階層間差分処理部522dに供給してよい。また、画質変換部510は、階層間差分処理部522bに供給する動画より低いフレームレートの動画を階層間差分処理部522aに供給してよく、階層間差分処理部522cに供給する動画より低いフレームレートの動画を階層間差分処理部522bに供給してよい。なお、画質変換部510は、特徴領域の特徴の種類に応じて撮像画像を間引くことによって、階層間差分処理部522に供給する動画のフレームレートを変換してよい。   Note that the image quality conversion unit 510 may convert the frame rate of the moving image supplied to each of the inter-layer difference processing unit 522 in accordance with the feature type of the feature region. For example, the image quality conversion unit 510 may supply, to the inter-layer difference processing unit 522d, a moving image having a lower frame rate than the moving image supplied to the inter-layer difference processing unit 522a. In addition, the image quality conversion unit 510 may supply a moving image having a lower frame rate than the moving image supplied to the inter-layer difference processing unit 522b to the inter-layer difference processing unit 522a, and a frame lower than the moving image supplied to the inter-layer difference processing unit 522c. The rate movie may be supplied to the inter-tier difference processing unit 522b. Note that the image quality conversion unit 510 may convert the frame rate of the moving image supplied to the inter-layer difference processing unit 522 by thinning out the captured image according to the feature type of the feature region.

階層間差分処理部522dおよび符号器532dは、複数の低解像度画像を含む背景領域動画を予測符号化する。具体的には、階層間差分処理部522は、他の低解像度画像から生成された予測画像との差分画像を生成する。そして、符号器532dは、差分画像を空間周波数成分に変換して得られた変換係数を量子化して、量子化された変換係数をエントロピー符号化等により符号化する。なお、このような予測符号化処理は、低解像度画像の部分領域毎に行われてよい。   The inter-layer difference processing unit 522d and the encoder 532d predictively encode a background area moving image including a plurality of low-resolution images. Specifically, the inter-layer difference processing unit 522 generates a difference image from a predicted image generated from another low-resolution image. Then, the encoder 532d quantizes the transform coefficient obtained by converting the difference image into a spatial frequency component, and encodes the quantized transform coefficient by entropy coding or the like. Note that such predictive encoding processing may be performed for each partial region of the low-resolution image.

また、階層間差分処理部522aは、画質変換部510から供給された複数の第1解像度画像を含む第1特徴領域動画を予測符号化する。同様に、階層間差分処理部522bおよび階層間差分処理部522cは、それぞれ複数の第2解像度画像を含む第2特徴領域動画および複数の第3解像度画像を含む第3特徴領域動画を予測符号化する。以下に、階層間差分処理部522aおよび符号器532aの具体的な動作について説明する。   Further, the inter-layer difference processing unit 522a predictively encodes the first feature region moving image including the plurality of first resolution images supplied from the image quality conversion unit 510. Similarly, the inter-layer difference processing unit 522b and the inter-layer difference processing unit 522c each predictively encode a second feature area moving image including a plurality of second resolution images and a third feature area moving image including a plurality of third resolution images. To do. Hereinafter, specific operations of the inter-layer difference processing unit 522a and the encoder 532a will be described.

階層間差分処理部522aは、符号器532dによる符号化後の第1解像度画像を復号して、復号した画像を第1解像度と同じ解像度の画像に拡大する。そして、階層間差分処理部522aは、拡大した画像と低解像度画像との間の差分画像を生成する。このとき、階層間差分処理部522aは、背景領域における差分値を0にする。そして、符号器532aは、差分画像を符号器532dと同様に符号化する。なお、階層間差分処理部522aおよび符号器532aによる符号化処理は、第1解像度画像の部分領域毎にされてよい。   The inter-layer difference processing unit 522a decodes the first resolution image encoded by the encoder 532d, and expands the decoded image to an image having the same resolution as the first resolution. Then, the inter-layer difference processing unit 522a generates a difference image between the enlarged image and the low resolution image. At this time, the inter-layer difference processing unit 522a sets the difference value in the background area to zero. Then, the encoder 532a encodes the difference image in the same manner as the encoder 532d. Note that the encoding processing by the inter-layer difference processing unit 522a and the encoder 532a may be performed for each partial region of the first resolution image.

なお、階層間差分処理部522aは、第1解像度画像を符号化する場合に、低解像度画像との間の差分画像を符号化した場合に予測される符号量と、他の第1解像度画像から生成された予測画像との間の差分画像を符号化した場合に予測される符号量とを比較する。後者の符号量の方が小さい場合には、階層間差分処理部522aは、他の第1解像度画像から生成された予測画像との間の差分画像を生成する。なお、階層間差分処理部522aは、低解像度画像または予測画像との差分をとらずに符号化した方が符号量が小さくなることが予測される場合には、低解像度画像または予測画像との間で差分をとらなくてもよい。   Note that, when the first resolution image is encoded, the inter-layer difference processing unit 522a calculates the code amount predicted when the difference image with the low resolution image is encoded, and the other first resolution image. The amount of code predicted when the difference image between the generated prediction image and the prediction image is encoded is compared. In the case where the latter code amount is smaller, the inter-layer difference processing unit 522a generates a difference image from the predicted image generated from the other first resolution image. In addition, the inter-layer difference processing unit 522a, when it is predicted that the code amount is smaller when encoded without taking the difference from the low-resolution image or the predicted image, It is not necessary to take a difference between them.

なお、階層間差分処理部522aは、背景領域における差分値を0にしなくてもよい。この場合、符号器532aは、特徴領域以外の領域における差分情報に対する符号化後のデータを0にしてもよい。例えば、符号器532aは、周波数成分に変換した後の変換係数を0にしてよい。なお、階層間差分処理部522dが予測符号化した場合の動きベクトル情報は、階層間差分処理部522aに供給される。階層間差分処理部522aは、階層間差分処理部522dから供給された動きベクトル情報を用いて、予測画像用の動きベクトルを算出してよい。   Note that the inter-layer difference processing unit 522a does not have to set the difference value in the background area to zero. In this case, the encoder 532a may set the encoded data for difference information in an area other than the feature area to zero. For example, the encoder 532a may set the conversion coefficient after conversion to a frequency component to zero. Note that the motion vector information when the inter-layer difference processing unit 522d performs predictive encoding is supplied to the inter-layer difference processing unit 522a. The inter-layer difference processing unit 522a may calculate a motion vector for a predicted image using the motion vector information supplied from the inter-layer difference processing unit 522d.

なお、階層間差分処理部522bおよび符号器532bの動作は、第2解像度画像を符号化するという点、および第2解像度画像を符号化する場合に、符号器532aによる符号化後の第1解像度画像との差分をとる場合があるという点を除いて、階層間差分処理部522bおよび符号器532bの動作は階層間差分処理部522aおよび符号器532aの動作と略同一であるので、説明を省略する。同様に、階層間差分処理部522cおよび符号器532cの動作は、第3解像度画像を符号化するという点、および第3解像度画像を符号化を符号化する場合に、符号器532bによる符号化後の第2解像度画像との差分をとる場合があるという点を除いて、階層間差分処理部522aおよび符号器532aの動作と略同一であるので、説明を省略する。   Note that the operations of the inter-layer difference processing unit 522b and the encoder 532b are that the second resolution image is encoded, and the first resolution after encoding by the encoder 532a when the second resolution image is encoded. The operations of the inter-layer difference processing unit 522b and the encoder 532b are substantially the same as the operations of the inter-layer difference processing unit 522a and the encoder 532a, except that the difference from the image may be taken. To do. Similarly, the operations of the inter-layer difference processing unit 522c and the encoder 532c are that the third resolution image is encoded, and when the third resolution image is encoded, after the encoding by the encoder 532b. Except for the fact that a difference from the second resolution image may be obtained, the operation is substantially the same as the operation of the inter-layer difference processing unit 522a and the encoder 532a, and thus the description thereof is omitted.

以上説明したように、画質変換部510は、複数の撮像画像のそれぞれから、画質を低画質にした低画質画像、および少なくとも特徴領域において低画質画像より高画質な特徴領域画像を生成する。そして、差分処理部520は、特徴領域画像における特徴領域の画像と、低画質画像における特徴領域の画像との間の差分画像を示す特徴領域差分画像を生成する。そして、符号化部530は、特徴領域差分画像および低画質画像をそれぞれ符号化する。   As described above, the image quality conversion unit 510 generates, from each of the plurality of captured images, a low image quality image with a low image quality and a feature region image with higher image quality than the low image quality at least in the feature region. Then, the difference processing unit 520 generates a feature region difference image indicating a difference image between the feature region image in the feature region image and the feature region image in the low-quality image. Then, the encoding unit 530 encodes the feature region difference image and the low quality image.

また、画質変換部510は、複数の撮像画像から解像度が低減された低画質画像を生成して、差分処理部520は、特徴領域画像における特徴領域の画像と、低画質画像における特徴領域の画像を拡大した画像との間の特徴領域差分画像を生成する。また、差分処理部520は、特徴領域において特徴領域画像と拡大した画像との間の差分が空間周波数領域に変換された空間周波数成分を持ち、特徴領域以外の領域において空間周波数成分のデータ量が低減された特徴領域差分画像を生成する。   In addition, the image quality conversion unit 510 generates a low-quality image with reduced resolution from a plurality of captured images, and the difference processing unit 520 includes a feature region image in the feature region image and a feature region image in the low-quality image. A feature region difference image between the image and the image enlarged is generated. Further, the difference processing unit 520 has a spatial frequency component in which the difference between the feature region image and the enlarged image in the feature region is converted into the spatial frequency region, and the data amount of the spatial frequency component is in the region other than the feature region. A reduced feature area difference image is generated.

以上説明したように、圧縮部230は、解像度が異なる複数の階層間の画像の差分を符号化することによって階層的に符号化する。このことからも明らかなように、本構成の圧縮部230による圧縮方式の一部は、H.264/SVCによる圧縮方式を含むことが明らかである。   As described above, the compression unit 230 performs hierarchical encoding by encoding image differences between a plurality of layers having different resolutions. As is clear from this, a part of the compression method by the compression unit 230 of this configuration is H.264. It is clear that a compression scheme according to H.264 / SVC is included.

図7は、撮像装置100によって撮像された撮像画像700の一例を示す。複数の撮像画像700−1〜20(以後、撮像画像700と総称する。)は、撮像装置100によって撮像された撮像画像を示す。撮像装置100は、予め定められた基準撮像レートより高い撮像レートで被写体を連続的に撮像してよい。例えば、撮像部102は、表示装置180が表示することができる表示レートより高いレートの撮像レートで被写体を撮影してよい。他にも、撮像部102は、監視対象である監視対象物の動き速度に応じて予め定められた基準撮像レートより高い撮像レートで被写体を連続的に撮像してよい。   FIG. 7 shows an example of a captured image 700 captured by the imaging apparatus 100. A plurality of captured images 700-1 to 20-20 (hereinafter collectively referred to as captured images 700) indicate captured images captured by the image capturing apparatus 100. The imaging apparatus 100 may continuously capture the subject at an imaging rate higher than a predetermined reference imaging rate. For example, the imaging unit 102 may capture the subject at an imaging rate that is higher than the display rate that the display device 180 can display. In addition, the imaging unit 102 may continuously capture the subject at an imaging rate higher than a reference imaging rate that is determined in advance according to the movement speed of the monitoring target that is the monitoring target.

なお、特徴領域検出部203は、撮像画像700のそれぞれから、特徴領域710−1〜20(以後、特徴領域710と総称する。)および特徴領域720−1〜20(以後、特徴領域720と総称する。)を検出している。そして、画像選択部220は、撮像画像700のうち、連続して撮像された予め定められた数の撮像画像700の中から1つずつ、画像処理装置170に出力すべき撮像画像700を選択する。   It should be noted that the feature area detection unit 203 includes a feature area 710-1 to 20 (hereinafter collectively referred to as a feature area 710) and a feature area 720-1 to 20 (hereinafter collectively referred to as a feature area 720) from each of the captured images 700. ) Is detected. Then, the image selection unit 220 selects the captured images 700 to be output to the image processing apparatus 170 one by one from among a predetermined number of captured images 700 that are continuously captured from the captured images 700. .

本図では、画像選択部220は、一例として連続する十個の撮像画像700を含む組のそれぞれから、出力すべき撮像画像700を1つずつ選択している。具体的には、画像選択部220は、撮像画像700−1〜10の中から、撮像画像700−5を選択しており、撮像画像700−11〜20の中から、撮像画像700−15を選択している。   In this figure, the image selection unit 220 selects one captured image 700 to be output from each of a set including ten consecutive captured images 700 as an example. Specifically, the image selection unit 220 selects the captured image 700-5 from the captured images 700-1 to 700-10, and selects the captured image 700-15 from the captured images 700-11 to 20. Selected.

対応付け処理部206は、特徴領域710−1〜10の位置および特徴領域の種類を示す情報、特徴領域720−1〜10の位置および特徴領域の種類を示す情報、およびそれらの特徴領域710−1〜10および特徴領域720−1〜10が検出された撮像画像700−1〜10が撮像された撮像タイミングを示す情報を、撮像画像700−5を識別する情報に付帯する。なお、撮像画像700−5を識別する情報は、撮像画像700を含む撮像動画において撮像画像700−5を識別するフレームIDであってよく、画像処理装置170に出力される撮像画像700の中で撮像画像700−5を識別するフレームIDであってもよい。同様に、対応付け処理部206は、特徴領域710−11〜20の位置および特徴領域の種類を示す情報、特徴領域720−11〜20の位置および特徴領域の種類を示す情報、およびそれらの特徴領域710−11〜20および特徴領域720−11〜20が検出された撮像画像700−11〜20が撮像された撮像タイミングを示す情報を、撮像画像700−15を識別する情報に付帯する。   The association processing unit 206 includes information indicating the positions of the feature regions 710-1 to 710-1 and the types of the feature regions, information indicating the positions of the feature regions 720-1 to 720-10 and the types of the feature regions, and the feature regions 710- Information indicating the imaging timing at which the captured images 700-1 to 10 in which 1 to 10 and the feature areas 720-1 to 10 are detected is captured is appended to the information for identifying the captured image 700-5. Note that the information for identifying the captured image 700-5 may be a frame ID for identifying the captured image 700-5 in the captured moving image including the captured image 700, and is included in the captured image 700 output to the image processing apparatus 170. It may be a frame ID for identifying the captured image 700-5. Similarly, the association processing unit 206 includes information indicating the position of the feature region 710-11 to 20 and the type of the feature region, information indicating the position of the feature region 720-11 to 20 and the type of the feature region, and their features. Information indicating the imaging timing at which the captured images 700-11 to 20 where the areas 710-11 to 20 and the characteristic areas 720-11 to 20 are detected is appended to the information for identifying the captured image 700-15.

図8は、撮像画像700−5に付帯された情報の一例を示す。対応付け処理部206は、特徴領域710−5および特徴領域720−5の位置を示す情報の一例として、特徴領域710−5および特徴領域720−5の位置を示す座標を付帯する。具体的には、対応付け処理部206は、特徴領域710−5および特徴領域720−5が矩形である場合、当該矩形の対角の頂点P1、P2、P3、P4の座標を付帯する。なお、これらの矩形の対角を示す情報により、矩形の特徴領域の形および大きさも同時に規定される。   FIG. 8 shows an example of information attached to the captured image 700-5. The association processing unit 206 attaches coordinates indicating the positions of the feature region 710-5 and the feature region 720-5 as an example of information indicating the positions of the feature region 710-5 and the feature region 720-5. Specifically, when the feature region 710-5 and the feature region 720-5 are rectangular, the association processing unit 206 attaches the coordinates of the vertices P1, P2, P3, and P4 on the diagonal of the rectangle. It should be noted that the shape and size of the feature region of the rectangle are simultaneously defined by the information indicating the diagonal of the rectangle.

また、対応付け処理部206は、特徴の種別を識別する識別番号を付帯してよい。例えば、対応付け処理部206は、特徴領域710−5の識別番号としてtype=2を示す情報を、特徴領域720−5の識別番号としてtype=1を示す情報を付帯する。また、対応付け処理部206は、撮像画像700−5が撮像された時刻t=xxxを付帯する。なお、上記の説明では、対応付け処理部206が撮像画像700−5から検出された特徴領域の情報を付帯する場合を例に挙げて、対応付け処理部206の動作を説明したが、対応付け処理部206は、撮像画像700−5に対応づけられる他の撮像画像700から検出された特徴領域の情報についても、同様の情報を付帯する。   Further, the association processing unit 206 may attach an identification number for identifying the type of feature. For example, the association processing unit 206 attaches information indicating type = 2 as the identification number of the feature region 710-5 and information indicating type = 1 as the identification number of the feature region 720-5. In addition, the association processing unit 206 accompanies time t = xxx when the captured image 700-5 is captured. In the above description, the operation of the association processing unit 206 has been described by taking as an example the case where the association processing unit 206 appends information on the feature area detected from the captured image 700-5. The processing unit 206 also attaches the same information to the feature region information detected from the other captured image 700 associated with the captured image 700-5.

図9は、特徴領域特定部354が特徴領域を特定する画像領域を示す。特徴領域特定部354は、画像選択部220により選択された撮像画像900に付帯された特徴領域の位置情報を対応付け解析部302から取得する。なお、以後の説明では、撮像画像900に付帯された特徴領域の矩形の対角の頂点の座標から算出された特徴領域の重心位置901、重心位置902、重心位置904、および重心位置905を用いて、特徴領域特定部354の動作を説明する。   FIG. 9 shows an image region in which the feature region specifying unit 354 specifies the feature region. The feature region specifying unit 354 acquires the position information of the feature region attached to the captured image 900 selected by the image selection unit 220 from the association analysis unit 302. In the following description, the centroid position 901, the centroid position 902, the centroid position 904, and the centroid position 905 of the feature area calculated from the coordinates of the diagonal vertices of the rectangle of the feature area attached to the captured image 900 are used. The operation of the feature region specifying unit 354 will be described.

なお、本図の例では、特徴領域検出部203は撮像画像900から特徴領域を検出できなかったとする。つまり、重心位置901、重心位置902、重心位置904、および重心位置905は、画像選択部220により選択されなかった撮像画像から検出された特徴領域の重心位置を示す。特徴領域特定部354は、上記の撮像タイミングを示す情報から、特徴領域の重心が重心位置901、重心位置902、重心位置904、および重心位置905の順で時間的に移動していることを検出する。したがって、特徴領域特定部354は、重心位置902および重心位置904の間に存在する点を含む画像領域910から、特徴領域を特定する。   In the example of this figure, it is assumed that the feature region detection unit 203 cannot detect the feature region from the captured image 900. That is, the barycentric position 901, the barycentric position 902, the barycentric position 904, and the barycentric position 905 indicate the barycentric positions of the feature areas detected from the captured images that are not selected by the image selection unit 220. The feature area specifying unit 354 detects from the above information indicating the imaging timing that the centroid of the feature area has moved in time in the order of the centroid position 901, the centroid position 902, the centroid position 904, and the centroid position 905. To do. Therefore, the feature region specifying unit 354 specifies the feature region from the image region 910 including the center of gravity position 902 and the point existing between the center of gravity position 904.

なお、特徴領域特定部354は、重心位置901、重心位置902、重心位置904、および重心位置905の座標から、撮像画像900が撮像されたタイミングにおける特徴領域の重心位置の座標を特定してよい。そして、特徴領域特定部354は、当該特定した座標が示す点を含む画像領域910から、特徴領域を特定してもよい。   Note that the feature region specifying unit 354 may specify the coordinates of the centroid position of the feature region at the timing when the captured image 900 is captured from the coordinates of the centroid position 901, the centroid position 902, the centroid position 904, and the centroid position 905. . Then, the feature region specifying unit 354 may specify the feature region from the image region 910 including the point indicated by the specified coordinates.

なお、特徴領域特定部354は、撮像画像900に付帯された特徴領域の矩形の対角の頂点の座標から、特徴領域の大きさおよび形を推定することができる。そして、特徴領域特定部354は、特定した特徴領域の大きさがより大きい場合に、より大きい画像領域910から特徴領域を特定してよい。例えば、特徴領域特定部354は、複数の特徴領域の大きさの最大値または平均値がより大きい場合に、より大きい画像領域910から特徴領域を特定してよい。また、特徴領域特定部354は、特定した特徴領域の形状と相似する形状の画像領域910から、特徴領域を特定してもよい。   The feature region specifying unit 354 can estimate the size and shape of the feature region from the coordinates of the diagonal corner vertices of the feature region attached to the captured image 900. Then, the feature region specifying unit 354 may specify the feature region from the larger image region 910 when the size of the specified feature region is larger. For example, the feature region specifying unit 354 may specify the feature region from the larger image region 910 when the maximum value or the average value of the sizes of the plurality of feature regions is larger. The feature region specifying unit 354 may specify the feature region from the image region 910 having a shape similar to the shape of the specified feature region.

以上説明したように、特徴領域特定部354は、特徴領域を特定する領域を限定することができる。このため、特徴領域特定部354は、高速に特徴領域を特定することができる。   As described above, the feature region specifying unit 354 can limit the region for specifying the feature region. For this reason, the feature region specifying unit 354 can specify the feature region at high speed.

図10は、撮像画像1000に付帯された特徴領域の位置から算出された重心位置の他の一例を示す。重心位置1001、重心位置1002、重心位置1004、および重心位置1005は、画像選択部220により選択されなかった撮像画像から検出された特徴領域の重心位置を示す。そして、重心位置1003は、撮像画像1000において検出された特徴領域の重心位置を示す。   FIG. 10 shows another example of the position of the center of gravity calculated from the position of the feature region attached to the captured image 1000. The barycentric position 1001, the barycentric position 1002, the barycentric position 1004, and the barycentric position 1005 indicate the barycentric position of the feature area detected from the captured image that has not been selected by the image selecting unit 220. A centroid position 1003 indicates the centroid position of the feature region detected in the captured image 1000.

この場合、信頼度算出部356は、撮像画像1000に付帯された特徴領域の重心位置の差に基づいて、撮像画像1000から検出された特徴領域の検出信頼度を算出する。信頼度算出部356は、重心位置1001、重心位置1002、重心位置1004、および重心位置1005から推定される特徴領域の移動方向から、撮像画像1000から検出されるべき特徴領域の位置を推定して、推定された特徴領域の重心位置と重心位置1003の位置の差を算出する。信頼度算出部356は、当該位置の差の大きさがより大きい場合に、撮像画像1000から検出された特徴領域の検出信頼度をより高く算出する。   In this case, the reliability calculation unit 356 calculates the detection reliability of the feature region detected from the captured image 1000 based on the difference in the centroid position of the feature region attached to the captured image 1000. The reliability calculation unit 356 estimates the position of the feature region to be detected from the captured image 1000 from the movement direction of the feature region estimated from the centroid position 1001, the centroid position 1002, the centroid position 1004, and the centroid position 1005. Then, the difference between the estimated gravity center position of the feature region and the gravity center position 1003 is calculated. The reliability calculation unit 356 calculates the detection reliability of the feature region detected from the captured image 1000 higher when the magnitude of the position difference is larger.

このようにして、信頼度算出部356は、検出信頼度を容易に算出することができる。このため、画像処理部360は、検出信頼度に応じた適切な画像処理を施すことができる。なお、特徴領域特定部354は、信頼度算出部356が検出した検出信頼度が予め定められた値より低い場合には、撮像画像1000におけるより広い画像領域から特徴領域を特定してもよい。これにより、特徴領域特定部354が特徴領域を特定し損ねてしまう確率を低減することができる。   In this way, the reliability calculation unit 356 can easily calculate the detection reliability. Thus, the image processing unit 360 can perform appropriate image processing according to the detection reliability. Note that the feature region specifying unit 354 may specify the feature region from a wider image region in the captured image 1000 when the detection reliability detected by the reliability calculation unit 356 is lower than a predetermined value. Thereby, the probability that the feature region specifying unit 354 fails to specify the feature region can be reduced.

図11は、撮像画像に付帯された複数種類の特徴領域のそれぞれの位置から算出された重心位置の一例を示す。撮像画像1101、撮像画像1102、および撮像画像1103は、画像選択部220によって選択された撮像画像であるとする。撮像画像1101から検出された第1種類の特徴領域の重心位置は重心位置1111であり、撮像画像1101から検出された第2種類の特徴領域の重心位置は重心位置1121であるとする。   FIG. 11 shows an example of the barycentric position calculated from the respective positions of a plurality of types of feature regions attached to the captured image. The captured image 1101, the captured image 1102, and the captured image 1103 are captured images selected by the image selection unit 220. It is assumed that the centroid position of the first type feature area detected from the captured image 1101 is the centroid position 1111, and the centroid position of the second type feature area detected from the captured image 1101 is the centroid position 1121.

また、撮像画像1102から検出された第1種類の特徴領域の重心位置は重心位置1112であり、撮像画像1102から検出された第2種類の特徴領域の重心位置は重心位置1122であるとする。また、撮像画像1103から検出された第1種類の特徴領域の重心位置は重心位置1113であり、撮像画像1103から検出された第2種類の特徴領域の重心位置は重心位置1123であるとする。   In addition, it is assumed that the barycentric position of the first type feature area detected from the captured image 1102 is the barycentric position 1112, and the barycentric position of the second type of characteristic area detected from the captured image 1102 is the barycentric position 1122. Further, it is assumed that the centroid position of the first type feature area detected from the captured image 1103 is the centroid position 1113, and the centroid position of the second type feature area detected from the captured image 1103 is the centroid position 1123.

なお、関連性算出部358は、撮像画像1101、撮像画像1102、および撮像画像1103に対応づけられた、画像選択部220によって選択されなかった撮像画像から検出された特徴領域の位置から、それらの重心位置を算出することができる。本図においては、符号が付されていない×印によりそれらの重心位置が示されている。   It should be noted that the relevance calculation unit 358 calculates from the positions of the feature regions detected from the captured images that are associated with the captured image 1101, the captured image 1102, and the captured image 1103 and that are not selected by the image selection unit 220. The center of gravity position can be calculated. In the figure, the positions of the centers of gravity are indicated by crosses without symbols.

関連性算出部358は、算出された重心位置の連続性から、これら撮像画像1101、撮像画像1102、および撮像画像1103から検出された特徴領域の関連性を算出する。本図の例では、重心位置1111、重心位置1112、および重心位置1113を結ぶ線の近傍には、より多くの重心位置が並ぶ。このような場合、関連性算出部358は、重心位置1111、重心位置1112、および重心位置1113に重心位置がある複数の特徴領域の間の関連性をより高く算出する。同様にして、関連性算出部358は、重心位置1121、重心位置1122、および重心位置1123に重心位置がある複数の特徴領域の間の関連性をより高く算出する。   The relevance calculation unit 358 calculates the relevance of the feature areas detected from the captured image 1101, the captured image 1102, and the captured image 1103 from the continuity of the calculated center of gravity position. In the example of this figure, more centroid positions are arranged near the line connecting the centroid position 1111, the centroid position 1112, and the centroid position 1113. In such a case, the relevance calculation unit 358 calculates the relevance among the plurality of feature regions having the centroid position at the centroid position 1111, the centroid position 1112, and the centroid position 1113. Similarly, the relevancy calculation unit 358 calculates the relevance between the centroid position 1121, the centroid position 1122, and a plurality of feature regions having the centroid position at the centroid position 1123 higher.

このように、関連性算出部358により、複数の撮像画像における特徴領域の関連性を適切に算出することができる。このため、画像処理部360は、例えば人物と車両が交錯するような動画が送られてきた場合であっても、両者を速やかに区別することができる。場合によっては、画像処理部360は、画像認識をすることなく、両者を区別することができる。また、画像処理部360は、関連性が低い特徴領域を一目で区別することができるようなマーキング処理を撮像画像に施したりすることができる。   As described above, the relevance calculation unit 358 can appropriately calculate the relevance of the feature regions in the plurality of captured images. For this reason, the image processing unit 360 can quickly distinguish between, for example, even when a moving image in which a person and a vehicle cross each other is sent. In some cases, the image processing unit 360 can distinguish between the two without performing image recognition. Further, the image processing unit 360 can perform a marking process on the captured image so that a feature region having low relevance can be distinguished at a glance.

図12は、撮像画像1200における集合領域の一例を示す。本図において、特徴領域1210、特徴領域1220、および特徴領域1230は、画像選択部220により選択されなかった撮像画像および画像選択部220により選択された撮像画像のいずれかから、特徴領域検出部203によって検出された特徴領域を示す。なお、特徴領域1210の検出信頼度はp1であり、特徴領域1220の検出信頼度はp2であり、特徴領域1230の検出信頼度はp3であるとする。なお、検出信頼度は、その大きさが大きいほど信頼度が高いとする。   FIG. 12 shows an example of the collection area in the captured image 1200. In this figure, the feature region 1210, the feature region 1220, and the feature region 1230 are selected from any one of the captured image that is not selected by the image selection unit 220 and the captured image that is selected by the image selection unit 220. The characteristic area detected by is shown. Note that the detection reliability of the feature region 1210 is p1, the detection reliability of the feature region 1220 is p2, and the detection reliability of the feature region 1230 is p3. It is assumed that the detection reliability is higher as the size is larger.

重要度算出部240は、特徴領域1210、特徴領域1220、および特徴領域1230に異なる含まれ方で含まれる領域毎に、重要度を算出する。例えば、重要度算出部240は、特徴領域1210、特徴領域1220、および特徴領域1230の集合領域を、他の特徴領域に含まれない特徴領域1210内の第1領域と、他の特徴領域に含まれない特徴領域1220内の第2領域と、他の特徴領域に含まれない特徴領域1230内の第3領域と、特徴領域1210および特徴領域1220にだけ含まれる第4領域と、特徴領域1210および特徴領域1230にだけ含まれる第5領域と、特徴領域1220および特徴領域1230にだけ含まれる第6領域と、特徴領域1210、特徴領域1220、および特徴領域1230に含まれる第7領域に分ける。   The importance calculation unit 240 calculates the importance for each of the regions included in the feature region 1210, the feature region 1220, and the feature region 1230 that are included in different ways. For example, the importance degree calculation unit 240 includes a feature region 1210, a feature region 1220, and a set region of the feature region 1230 in the first region in the feature region 1210 that is not included in the other feature regions and in the other feature regions. A second region in the feature region 1220 not included, a third region in the feature region 1230 not included in the other feature region, a fourth region included only in the feature region 1210 and the feature region 1220, a feature region 1210 and It is divided into a fifth area included only in the feature area 1230, a sixth area included only in the feature area 1220 and the feature area 1230, and a seventh area included in the feature area 1210, the feature area 1220, and the feature area 1230.

そして、重要度算出部240は、上記7個の領域のそれぞれについて、重要度を算出する。具体的には、重要度算出部240は、上記7個の領域のそれぞれについて、それぞれの領域が含まれる特徴領域の検出信頼度を合計した合計値を算出する。重要度算出部240は、当該合計値が大きいほど、より大きい重要度を算出する。   Then, the importance calculation unit 240 calculates the importance for each of the seven areas. Specifically, the importance level calculation unit 240 calculates a total value obtained by summing the detection reliability levels of the feature areas including the respective areas for each of the seven areas. The importance calculation unit 240 calculates a greater importance as the total value is larger.

そして、対応付け処理部206は、予め定められた値より大きい重要度が算出された領域を示す情報を、画像選択部220によって選択された撮像画像1200に対応づけてよい。例えば、対応付け処理部206は、集合領域のうち、本図において斜線で示した第4領域、第6領域、および第7領域を示す情報を、当該選択された撮像画像1200に対応づけてよい。また、圧縮部230は、予め定められた値より大きい重要度が算出された領域を、図3または図6で説明した特徴領域として扱うことによって、当該領域の画質が他の領域より高い圧縮動画を生成してよい。   Then, the association processing unit 206 may associate information indicating an area in which importance greater than a predetermined value is calculated with the captured image 1200 selected by the image selection unit 220. For example, the association processing unit 206 may associate information indicating the fourth region, the sixth region, and the seventh region indicated by hatching in the drawing with respect to the selected captured image 1200. . In addition, the compression unit 230 treats an area whose importance is greater than a predetermined value as the feature area described with reference to FIG. 3 or FIG. 6, so that the compressed moving image has higher image quality than the other areas. May be generated.

このように、重要度算出部240が算出した重要度が予め定められた値より大きい領域を撮像画像に対応づけて出力するので、画像処理装置170において特徴領域を特定すべく画像認識をする対象領域をより狭めることができる。このため、画像処理装置170においてより高速に特徴領域を特定することができる。   As described above, since the region in which the importance calculated by the importance calculation unit 240 is greater than a predetermined value is output in association with the captured image, the image processing apparatus 170 performs image recognition to identify the feature region. The area can be further narrowed. For this reason, the feature region can be identified at a higher speed in the image processing apparatus 170.

図13は、他の実施形態に係る画像処理システム20の一例を示す。本実施形態における画像処理システム20の構成は、撮像装置100a−dがそれぞれ画像処理部804a−d(以下、画像処理部804と総称する。)を有する点を除いて、図1で説明した画像処理システム10の構成と同じとなっている。   FIG. 13 shows an example of an image processing system 20 according to another embodiment. The configuration of the image processing system 20 in the present embodiment is the image described with reference to FIG. 1 except that the imaging devices 100a-d have image processing units 804a-d (hereinafter collectively referred to as image processing units 804). The configuration of the processing system 10 is the same.

画像処理部804は、それぞれ画像処理部200と同一の構成を有している。そして、画像処理部804に含まれる各構成要素の機能および動作は、画像処理部200に含まれる各構成要素が圧縮動画伸張部202による伸張処理によって得られた撮像動画を処理することに替えて、撮像部102によって撮像された撮像動画を処理するという点を除いて、画像処理部200に含まれる各構成要素の機能および動作と略同一であってよい。このような構成の画像処理システム20においても、図1から図13にかけて画像処理システム10に関連して説明した効果と略同一の効果が得ることができる。   Each of the image processing units 804 has the same configuration as that of the image processing unit 200. The functions and operations of the constituent elements included in the image processing unit 804 are changed to that the constituent elements included in the image processing unit 200 process the captured moving image obtained by the decompression processing by the compressed moving image decompression unit 202. The functions and operations of each component included in the image processing unit 200 may be substantially the same except that the captured moving image captured by the imaging unit 102 is processed. Also in the image processing system 20 having such a configuration, substantially the same effect as that described in relation to the image processing system 10 from FIGS. 1 to 13 can be obtained.

図14は、画像処理装置120および画像処理装置170のハードウェア構成の一例を示す。画像処理装置120および画像処理装置170は、CPU周辺部と、入出力部と、レガシー入出力部とを備える。CPU周辺部は、ホスト・コントローラ1582により相互に接続されるCPU1505、RAM1520、グラフィック・コントローラ1575、及び表示デバイス1580を有する。入出力部は、入出力コントローラ1584によりホスト・コントローラ1582に接続される通信インターフェイス1530、ハードディスクドライブ1540、及びCD−ROMドライブ1560を有する。レガシー入出力部は、入出力コントローラ1584に接続されるROM1510、フレキシブルディスク・ドライブ1550、及び入出力チップ1570を有する。   FIG. 14 shows an example of the hardware configuration of the image processing device 120 and the image processing device 170. The image processing device 120 and the image processing device 170 include a CPU peripheral unit, an input / output unit, and a legacy input / output unit. The CPU peripheral section includes a CPU 1505, a RAM 1520, a graphic controller 1575, and a display device 1580 that are connected to each other by a host controller 1582. The input / output unit includes a communication interface 1530, a hard disk drive 1540, and a CD-ROM drive 1560 that are connected to the host controller 1582 by the input / output controller 1584. The legacy input / output unit includes a ROM 1510, a flexible disk drive 1550, and an input / output chip 1570 connected to the input / output controller 1584.

ホスト・コントローラ1582は、RAM1520と、より高い転送レートでRAM1520をアクセスするCPU1505、及びグラフィック・コントローラ1575とを接続する。CPU1505は、ROM1510、及びRAM1520に格納されたプログラムの内容に応じて動作して、各部の制御をする。グラフィック・コントローラ1575は、CPU1505等がRAM1520内に設けたフレーム・バッファ上に生成する画像データを取得して、表示デバイス1580上に表示させる。これに代えて、グラフィック・コントローラ1575は、CPU1505等が生成する画像データを格納するフレーム・バッファを、内部に含んでもよい。   The host controller 1582 connects the RAM 1520, the CPU 1505 that accesses the RAM 1520 at a higher transfer rate, and the graphic controller 1575. The CPU 1505 operates according to the contents of the programs stored in the ROM 1510 and the RAM 1520 and controls each unit. The graphic controller 1575 acquires image data generated by the CPU 1505 or the like on a frame buffer provided in the RAM 1520 and displays the image data on the display device 1580. Alternatively, the graphic controller 1575 may include a frame buffer that stores image data generated by the CPU 1505 or the like.

入出力コントローラ1584は、ホスト・コントローラ1582と、比較的高速な入出力装置であるハードディスクドライブ1540、通信インターフェイス1530、CD−ROMドライブ1560を接続する。ハードディスクドライブ1540は、CPU1505が使用するプログラム、及びデータを格納する。通信インターフェイス1530は、ネットワーク通信装置1598に接続してプログラムまたはデータを送受信する。CD−ROMドライブ1560は、CD−ROM1595からプログラムまたはデータを読み取り、RAM1520を介してハードディスクドライブ1540、及び通信インターフェイス1530に提供する。   The input / output controller 1584 connects the host controller 1582 to the hard disk drive 1540, the communication interface 1530, and the CD-ROM drive 1560, which are relatively high-speed input / output devices. The hard disk drive 1540 stores programs and data used by the CPU 1505. The communication interface 1530 is connected to the network communication device 1598 to transmit / receive programs or data. The CD-ROM drive 1560 reads a program or data from the CD-ROM 1595 and provides it to the hard disk drive 1540 and the communication interface 1530 via the RAM 1520.

入出力コントローラ1584には、ROM1510と、フレキシブルディスク・ドライブ1550、及び入出力チップ1570の比較的低速な入出力装置とが接続される。ROM1510は、画像処理装置120および画像処理装置170が起動するときに実行するブート・プログラム、あるいは画像処理装置120および画像処理装置170のハードウェアに依存するプログラム等を格納する。フレキシブルディスク・ドライブ1550は、フレキシブルディスク1590からプログラムまたはデータを読み取り、RAM1520を介してハードディスクドライブ1540、及び通信インターフェイス1530に提供する。入出力チップ1570は、フレキシブルディスク・ドライブ1550、あるいはパラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポート等を介して各種の入出力装置を接続する。   The input / output controller 1584 is connected to the ROM 1510, the flexible disk drive 1550, and the relatively low-speed input / output device of the input / output chip 1570. The ROM 1510 stores a boot program that is executed when the image processing device 120 and the image processing device 170 are started, or a program that depends on the hardware of the image processing device 120 and the image processing device 170. The flexible disk drive 1550 reads a program or data from the flexible disk 1590 and provides it to the hard disk drive 1540 and the communication interface 1530 via the RAM 1520. The input / output chip 1570 connects various input / output devices via the flexible disk drive 1550 or a parallel port, serial port, keyboard port, mouse port, and the like.

CPU1505が実行するプログラムは、フレキシブルディスク1590、CD−ROM1595、またはICカード等の記録媒体に格納されて利用者によって提供される。記録媒体に格納されたプログラムは圧縮されていても非圧縮であってもよい。プログラムは、記録媒体からハードディスクドライブ1540にインストールされ、RAM1520に読み出されてCPU1505により実行される。CPU1505により実行されるプログラムは、画像処理装置120を、図1から図13に関連して説明した画像処理装置120が有する各構成要素として機能させ、画像処理装置170を、図1から図14に関連して説明した、画像処理装置170が有する各構成要素として機能させる。   A program executed by the CPU 1505 is stored in a recording medium such as the flexible disk 1590, the CD-ROM 1595, or an IC card and provided by the user. The program stored in the recording medium may be compressed or uncompressed. The program is installed in the hard disk drive 1540 from the recording medium, read into the RAM 1520, and executed by the CPU 1505. The program executed by the CPU 1505 causes the image processing apparatus 120 to function as each component included in the image processing apparatus 120 described with reference to FIGS. 1 to 13, and causes the image processing apparatus 170 to function as illustrated in FIGS. 1 to 14. It is made to function as each component which image processing apparatus 170 which was explained related has.

以上に示したプログラムは、外部の記憶媒体に格納されてもよい。記憶媒体としては、フレキシブルディスク1590、CD−ROM1595の他に、DVDまたはPD等の光学記録媒体、MD等の光磁気記録媒体、テープ媒体、ICカード等の半導体メモリ等を用いることができる。また、専用通信ネットワークあるいはインターネットに接続されたサーバシステムに設けたハードディスクまたはRAM等の記憶装置を記録媒体として使用して、ネットワークを介したプログラムとして画像処理装置120および画像処理装置170に提供してもよい。このように、プログラムにより制御されるコンピュータが、画像処理装置120および画像処理装置170として機能する。   The program shown above may be stored in an external storage medium. As the storage medium, in addition to the flexible disk 1590 and the CD-ROM 1595, an optical recording medium such as a DVD or PD, a magneto-optical recording medium such as an MD, a tape medium, a semiconductor memory such as an IC card, or the like can be used. Further, a storage device such as a hard disk or a RAM provided in a server system connected to a dedicated communication network or the Internet is used as a recording medium, and is provided to the image processing device 120 and the image processing device 170 as a program via the network. Also good. As described above, the computer controlled by the program functions as the image processing device 120 and the image processing device 170.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

一実施形態に係わる画像処理システム10の一例を示す図である。1 is a diagram illustrating an example of an image processing system 10 according to an embodiment. 画像処理装置120のブロック構成の一例を示す図である。2 is a diagram illustrating an example of a block configuration of an image processing apparatus 120. FIG. 圧縮部230のブロック構成の一例を示す図である。3 is a diagram illustrating an example of a block configuration of a compression unit 230. FIG. 画像処理装置170のブロック構成の一例を示す図である。2 is a diagram illustrating an example of a block configuration of an image processing apparatus 170. FIG. 特徴領域処理部350のブロック構成の一例を示す図である。5 is a diagram illustrating an example of a block configuration of a feature area processing unit 350. FIG. 圧縮部230の他のブロック構成の一例を示す図である。It is a figure which shows an example of the other block structure of the compression part 230. FIG. 撮像装置100によって撮像された撮像画像700の一例を示す図である。6 is a diagram illustrating an example of a captured image 700 captured by the imaging apparatus 100. FIG. 撮像画像700−5に付帯される情報の一例を示す図である。It is a figure which shows an example of the information incidental to the captured image 700-5. 特徴領域特定部354が特徴領域を特定する画像領域を示す図である。It is a figure which shows the image area which the characteristic area specific | specification part 354 specifies a characteristic area. 特徴領域の位置から算出された重心位置の他の一例を示す図である。It is a figure which shows another example of the gravity center position calculated from the position of the characteristic area. 複数種類の特徴領域のそれぞれの位置から算出された重心位置の一例を示す図である。It is a figure which shows an example of the gravity center position calculated from each position of multiple types of feature area. 撮像画像における集合領域の一例を示す図である。It is a figure which shows an example of the collection area | region in a captured image. 他の実施形態に係る画像処理システム20の一例を示す図である。It is a figure which shows an example of the image processing system 20 which concerns on other embodiment. 画像処理装置120および画像処理装置170のハードウェア構成の一例を示す図である。2 is a diagram illustrating an example of a hardware configuration of an image processing device 120 and an image processing device 170. FIG.

符号の説明Explanation of symbols

10 画像処理システム
20 画像処理システム
100 撮像装置
102 撮像部
104 撮像動画圧縮部
110 通信ネットワーク
120 画像処理装置
130 人物
140 移動体
150 監視対象空間
160 空間
170 画像処理装置
175 画像DB
180 表示装置
200 画像処理部
201 圧縮動画取得部
202 圧縮動画伸張部
203 特徴領域検出部
206 対応付け処理部
207 出力部
210 圧縮制御部
220 画像選択部
230 圧縮部
232 画像分割部
234 固定値化部
236 圧縮処理部
240 重要度算出部
250 画像取得部
301 圧縮画像取得部
302 対応付け解析部
310 伸張制御部
320 伸張部
322 復号器
330 合成部
340 出力部
350 特徴領域処理部
352 特徴領域画像選択部
354 特徴領域特定部
356 信頼度算出部
358 関連性算出部
360 画像処理部
510 画質変換部
520 差分処理部
522 階層間差分処理部
530 符号化部
532 符号器
700 撮像画像
710 特徴領域
720 特徴領域
804 画像処理部
900 撮像画像
901 重心位置
902 重心位置
904 重心位置
905 重心位置
910 画像領域
1000 撮像画像
1000 撮像画像
1001 重心位置
1002 重心位置
1003 重心位置
1004 重心位置
1005 重心位置
1101 撮像画像
1102 撮像画像
1103 撮像画像
1111 重心位置
1112 重心位置
1121 重心位置
1122 重心位置
1113 重心位置
1123 重心位置
1200 撮像画像
1210 特徴領域
1220 特徴領域
1230 特徴領域
1505 CPU
1510 ROM
1520 RAM
1530 通信インターフェイス
1540 ハードディスクドライブ
1550 フレキシブルディスク・ドライブ
1560 CD−ROMドライブ
1570 入出力チップ
1575 グラフィック・コントローラ
1580 表示デバイス
1582 ホスト・コントローラ
1584 入出力コントローラ
1590 フレキシブルディスク
1595 CD−ROM
1598 ネットワーク通信装置
DESCRIPTION OF SYMBOLS 10 Image processing system 20 Image processing system 100 Imaging device 102 Imaging part 104 Imaging moving image compression part 110 Communication network 120 Image processing apparatus 130 Person 140 Mobile body 150 Monitoring object space 160 Space 170 Image processing apparatus 175 Image DB
180 Display Device 200 Image Processing Unit 201 Compressed Movie Acquisition Unit 202 Compressed Movie Expansion Unit 203 Feature Area Detection Unit 206 Association Processing Unit 207 Output Unit 210 Compression Control Unit 220 Image Selection Unit 230 Compression Unit 232 Image Dividing Unit 234 Fixed Value Unit 236 Compression processing unit 240 Importance calculation unit 250 Image acquisition unit 301 Compressed image acquisition unit 302 Association analysis unit 310 Decompression control unit 320 Decompression unit 322 Decoder 330 Synthesis unit 340 Output unit 350 Feature region processing unit 352 Feature region image selection unit 354 Feature region identification unit 356 Reliability calculation unit 358 Relevance calculation unit 360 Image processing unit 510 Image quality conversion unit 520 Difference processing unit 522 Inter-layer difference processing unit 530 Encoding unit 532 Encoder 700 Captured image 710 Feature region 720 Feature region 804 Image processing unit 900 captured image 901 centroid position 902 Centroid position 904 centroid position 905 centroid position 910 image area 1000 captured image 1000 captured image 1001 centroid position 1002 centroid position 1004 centroid position 1004 centroid position 1005 centroid position 1101 captured image 1102 captured image 1103 captured image 1111 centroid position 1112 centroid position 1121 centroid position 1122 Center of gravity position 1113 Center of gravity position 1123 Center of gravity position 1200 Captured image 1210 Feature region 1220 Feature region 1230 Feature region 1505 CPU
1510 ROM
1520 RAM
1530 Communication interface 1540 Hard disk drive 1550 Flexible disk drive 1560 CD-ROM drive 1570 Input / output chip 1575 Graphic controller 1580 Display device 1582 Host controller 1584 Input / output controller 1590 Flexible disk 1595 CD-ROM
1598 Network communication device

Claims (19)

異なるタイミングで撮像された複数の撮像画像を取得する画像取得部と、
前記複数の撮像画像のそれぞれから特徴領域を検出する特徴領域検出部と、
前記複数の撮像画像の中から、一部の撮像画像を選択する画像選択部と、
前記複数の撮像画像から検出された複数の前記特徴領域を包含する領域を示す情報を、前記一部の撮像画像に対応づけて出力する出力部と
を備える画像処理システム。
An image acquisition unit that acquires a plurality of captured images captured at different timings;
A feature region detector that detects a feature region from each of the plurality of captured images;
An image selection unit for selecting a part of the captured images from the plurality of captured images;
An image processing system comprising: an output unit that outputs information indicating a region including a plurality of the feature regions detected from the plurality of captured images in association with the part of the captured images .
異なるタイミングで撮像された複数の撮像画像を取得する画像取得部と、An image acquisition unit that acquires a plurality of captured images captured at different timings;
前記複数の撮像画像のそれぞれから特徴領域を検出する特徴領域検出部と、A feature region detector that detects a feature region from each of the plurality of captured images;
前記複数の撮像画像の中から、一部の撮像画像を選択する画像選択部と、An image selection unit for selecting a part of the captured images from the plurality of captured images;
前記複数の撮像画像のうち前記一部の撮像画像以外の撮像画像から検出された特徴領域を特定する情報を、前記一部の撮像画像に対応づけて出力する出力部とAn output unit that outputs information specifying a feature region detected from a captured image other than the partial captured image among the plurality of captured images in association with the partial captured image;
を備える画像処理システム。An image processing system comprising:
前記出力部は、前記複数の撮像画像から検出された複数の前記特徴領域の集合領域を示す情報を、前記一部の撮像画像に対応づけて出力する
請求項1または2に記載の画像処理システム。
The output unit, an image processing system according to claim 1 or 2 the information indicating the set area of the plurality of detected plurality of feature regions from the captured image, and outputs in association with the portion of the captured image .
前記特徴領域検出部が検出した複数の前記特徴領域のそれぞれの検出信頼度に基づいて、前記複数の撮像画像から検出された複数の前記特徴領域の集合領域における複数の画像領域毎に重要度を算出する重要度算出部
をさらに備え、
前記出力部は、前記重要度算出部が算出した重要度が予め定められた値より大きい画像領域を示す情報を、前記一部の撮像画像に対応づけて出力する
請求項3に記載の画像処理システム。
Based on the detection reliability of each of the plurality of feature regions detected by the feature region detection unit, the importance is determined for each of the plurality of image regions in the set region of the plurality of feature regions detected from the plurality of captured images. Further comprising an importance calculation unit for calculating,
The image processing according to claim 3, wherein the output unit outputs information indicating an image region whose importance calculated by the importance calculation unit is larger than a predetermined value in association with the part of the captured images. system.
前記重要度算出部は、前記集合領域における複数の画像領域毎に当該画像領域を含む前記特徴領域の検出信頼度を加算した加算値を算出し、当該加算値に基づいて前記集合領域における複数の画像領域毎に前記重要度を算出する
請求項4に記載の画像処理システム。
The importance calculation unit calculates an addition value obtained by adding the detection reliability of the feature area including the image area for each of a plurality of image areas in the collection area, and based on the addition value, a plurality of importance values in the collection area are calculated. The image processing system according to claim 4, wherein the importance is calculated for each image region.
前記特徴領域検出部が検出した複数の前記特徴領域のそれぞれ検出信頼度に基づいて、前記複数の撮像画像から検出された複数の前記特徴領域の集合領域における複数の画像領域毎に、重要度を算出する重要度算出部
をさらに備え、
前記出力部は、前記集合領域を示す情報および前記重要度算出部が算出した重要度を前記一部の撮像画像に対応づけて出力する
請求項3に記載の画像処理システム。
Based on the detection reliability of each of the plurality of feature regions detected by the feature region detection unit, the importance is determined for each of the plurality of image regions in the set region of the plurality of feature regions detected from the plurality of captured images. Further comprising an importance calculation unit for calculating,
The image processing system according to claim 3, wherein the output unit outputs the information indicating the collection area and the importance calculated by the importance calculation unit in association with the part of the captured images.
前記特徴領域検出部は、動く物体を示すオブジェクトを含む領域を、前記特徴領域として検出する
請求項5に記載の画像処理システム。
The image processing system according to claim 5, wherein the feature region detection unit detects a region including an object indicating a moving object as the feature region.
前記画像選択部は、前記複数の撮像画像の中から、予め定められた条件に適合する前記一部の撮像画像を選択する
請求項7に記載の画像処理システム。
The image processing system according to claim 7, wherein the image selection unit selects the partial captured image that satisfies a predetermined condition from the plurality of captured images.
前記画像選択部は、前記特徴領域検出部が検出した特徴領域の画像内容が予め定められた条件に適合する前記一部の撮像画像を選択する
請求項8に記載の画像処理システム。
The image processing system according to claim 8, wherein the image selection unit selects the part of the captured images in which the image content of the feature region detected by the feature region detection unit meets a predetermined condition.
前記出力部から前記一部の撮像画像に対応づけて出力された前記集合領域を示す情報に基づいて、当該一部の撮像画像から特徴領域を特定する特徴領域特定部
をさらに備える請求項3に記載の画像処理システム。
4. The image processing apparatus according to claim 3, further comprising a feature region specifying unit that specifies a feature region from the partial captured image based on information indicating the collective region output in association with the partial captured image from the output unit. The image processing system described.
前記一部の撮像画像における前記集合領域の画像と、前記撮像画像における前記集合領域以外の領域である背景領域の画像とを、異なる圧縮率で圧縮する圧縮部
をさらに備える請求項3に記載の画像処理システム。
The compression unit according to claim 3, further comprising: a compression unit that compresses the image of the collective region in the part of the captured images and the image of the background region other than the collective region in the captured image at different compression rates. Image processing system.
前記圧縮部は、
前記一部の撮像画像を、前記集合領域と、前記集合領域以外の背景領域とに分割する画像分割部と、
前記集合領域の画像である特徴領域画像と前記背景領域の画像である背景領域画像とを、それぞれ異なる強度で圧縮する圧縮処理部と
を有する請求項11に記載の画像処理システム。
The compression unit is
An image dividing unit that divides the part of the captured image into the collective region and a background region other than the collective region;
The image processing system according to claim 11, further comprising: a compression processing unit that compresses the feature region image that is the image of the collective region and the background region image that is the image of the background region with different intensities.
前記画像分割部は、動画に動画構成画像として含まれる複数の前記一部の撮像画像のそれぞれを、前記集合領域と前記背景領域とに分割し、
前記圧縮処理部は、前記特徴領域画像を複数含む特徴領域動画と前記背景領域画像を複数含む背景領域動画とを、それぞれ異なる強度で圧縮する
請求項12に記載の画像処理システム。
The image dividing unit divides each of the plurality of captured images included in the moving image as moving image constituent images into the collective region and the background region,
The image processing system according to claim 12, wherein the compression processing unit compresses a feature area moving image including a plurality of the characteristic area images and a background area moving image including a plurality of the background area images with different strengths.
前記圧縮部は、
動画に動画構成画像として含まれる複数の前記一部の撮像画像のそれぞれから、画質を低画質にした低画質画像、および少なくとも前記特徴領域において前記低画質画像より高画質な特徴領域画像を生成する画像生成部と、
前記特徴領域画像における前記特徴領域の画像と、前記低画質画像における前記特徴領域の画像との間の差分画像を示す特徴領域差分画像を生成する差分処理部と、
前記特徴領域差分画像および前記低画質画像をそれぞれ符号化する符号化部と
を有する請求項11に記載の画像処理システム。
The compression unit is
A low-quality image having a low image quality and a feature area image having a higher image quality than the low-quality image in at least the feature area are generated from each of the plurality of captured images included in the moving image as a moving image constituent image. An image generator;
A difference processing unit that generates a feature area difference image indicating a difference image between the image of the feature area in the feature area image and the image of the feature area in the low-quality image;
The image processing system according to claim 11, further comprising: an encoding unit that encodes the feature area difference image and the low-quality image.
前記画像生成部は、前記動画に動画構成画像として含まれる複数の前記一部の撮像画像から解像度が低減された前記低画質画像を生成し、
前記差分処理部は、前記特徴領域画像における前記特徴領域の画像と、前記低画質画像における前記特徴領域の画像を拡大した画像との間の前記特徴領域差分画像を生成する
請求項14に記載の画像処理システム。
The image generation unit generates the low-quality image with reduced resolution from a plurality of the captured images included in the moving image as a moving image constituent image,
The difference processing unit generates the feature region difference image between an image of the feature region in the feature region image and an image obtained by enlarging the image of the feature region in the low-quality image. Image processing system.
前記差分処理部は、前記特徴領域において前記特徴領域画像と前記拡大した画像との間の差分が空間周波数領域に変換された空間周波数成分を持ち、前記特徴領域以外の領域において前記空間周波数成分のデータ量が低減された前記特徴領域差分画像を生成する
請求項15に記載の画像処理システム。
The difference processing unit has a spatial frequency component in which a difference between the feature region image and the enlarged image is converted into a spatial frequency region in the feature region, and the spatial frequency component of the region other than the feature region The image processing system according to claim 15, wherein the feature area difference image with a reduced data amount is generated.
請求項1から請求項16のいずれか1つに記載の画像処理システムとして、コンピュータを機能させるためのプログラム。The program for functioning a computer as an image processing system as described in any one of Claims 1-16. 異なるタイミングで撮像された複数の撮像画像を取得する画像取得段階と、
前記複数の撮像画像のそれぞれから特徴領域を検出する特徴領域検出段階と、
前記複数の撮像画像の中から、一部の撮像画像を選択する画像選択段階と、
前記複数の撮像画像から検出された複数の前記特徴領域を包含する領域を示す情報を、前記一部の撮像画像に対応づけて出力する出力段階と
を備える画像処理方法。
An image acquisition stage for acquiring a plurality of captured images captured at different timings;
A feature region detection step of detecting a feature region from each of the plurality of captured images;
An image selection step of selecting a part of the captured images from the plurality of captured images;
An image processing method comprising: an output step of outputting information indicating a region including the plurality of feature regions detected from the plurality of captured images in association with the part of the captured images.
異なるタイミングで撮像された複数の撮像画像を取得する画像取得段階と、An image acquisition stage for acquiring a plurality of captured images captured at different timings;
前記複数の撮像画像のそれぞれから特徴領域を検出する特徴領域検出段階と、A feature region detection step of detecting a feature region from each of the plurality of captured images;
前記複数の撮像画像の中から、一部の撮像画像を選択する画像選択段階と、An image selection step of selecting a part of the captured images from the plurality of captured images;
前記複数の撮像画像のうち前記一部の撮像画像以外の撮像画像から検出された特徴領域を特定する情報を、前記一部の撮像画像に対応づけて出力する出力段階とAn output stage for outputting information specifying a feature region detected from a captured image other than the partial captured image among the plurality of captured images in association with the partial captured image;
を備える画像処理方法。An image processing method comprising:
JP2008093321A 2008-03-31 2008-03-31 Image processing system, image processing method, and program Expired - Fee Related JP4905723B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008093321A JP4905723B2 (en) 2008-03-31 2008-03-31 Image processing system, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008093321A JP4905723B2 (en) 2008-03-31 2008-03-31 Image processing system, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2009246837A JP2009246837A (en) 2009-10-22
JP4905723B2 true JP4905723B2 (en) 2012-03-28

Family

ID=41308246

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008093321A Expired - Fee Related JP4905723B2 (en) 2008-03-31 2008-03-31 Image processing system, image processing method, and program

Country Status (1)

Country Link
JP (1) JP4905723B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07288789A (en) * 1994-04-15 1995-10-31 Hitachi Ltd Intelligent encoding device and image communication device
JP4685465B2 (en) * 2005-02-01 2011-05-18 パナソニック株式会社 Monitoring and recording device

Also Published As

Publication number Publication date
JP2009246837A (en) 2009-10-22

Similar Documents

Publication Publication Date Title
JP4895042B2 (en) Image compression apparatus, image compression method, and program
JP6263830B2 (en) Techniques for including multiple regions of interest indicators in compressed video data
US8462226B2 (en) Image processing system
JP5181294B2 (en) Imaging system, imaging method, and program
JP4897600B2 (en) Image processing apparatus, image processing method, and program
US8503810B2 (en) Image compression using partial region determination
US20110019741A1 (en) Image processing system
JP5082134B2 (en) Image processing apparatus, image processing method, and program
JP5337970B2 (en) Image processing system, image processing method, and program
JP5156982B2 (en) Image processing system, image processing method, and program
JP2012085350A (en) Image processing apparatus, image processing method, and program
JP5117424B2 (en) Image processing system, image processing method, and program
JP2009273116A (en) Image processing device, image processing method, and program
JP4905723B2 (en) Image processing system, image processing method, and program
JP5034116B2 (en) Image processing system, image processing method, and program
JP4895041B2 (en) Image processing apparatus, image processing method, and program
JP5136172B2 (en) Image processing system, image processing method, and program
JP4817262B2 (en) Image processing apparatus, image processing method, and program
JP4961582B2 (en) Image processing system, image processing method, and program
JP2009253581A (en) Image processing apparatus, image processing method, and program
JP5082141B2 (en) Image processing system, image processing method, and program
JP4873488B2 (en) Image processing apparatus, image processing method, and program
JP5105179B2 (en) Image processing system, image processing method, and program
JP5082142B2 (en) Image processing apparatus, image processing system, image processing method, and program
JP5337969B2 (en) Image processing system, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100617

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111213

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111227

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150120

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4905723

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees