JP4905723B2 - Image processing system, image processing method, and program - Google Patents
Image processing system, image processing method, and program Download PDFInfo
- Publication number
- JP4905723B2 JP4905723B2 JP2008093321A JP2008093321A JP4905723B2 JP 4905723 B2 JP4905723 B2 JP 4905723B2 JP 2008093321 A JP2008093321 A JP 2008093321A JP 2008093321 A JP2008093321 A JP 2008093321A JP 4905723 B2 JP4905723 B2 JP 4905723B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature
- region
- unit
- captured
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
Description
本発明は、画像処理システム、画像処理方法、およびプログラムに関する。本発明は、特に、画像を処理する画像処理システムおよび画像処理方法、ならびに画像処理システム用のプログラムに関する。 The present invention relates to an image processing system, an image processing method, and a program. The present invention particularly relates to an image processing system and an image processing method for processing an image, and a program for the image processing system.
顔画像を取得する顔画像抽出装置において、入力映像を時間方向に間引いてフレームレートを変換して、フレームレートが変換された入力画像から人物の顔を抽出する顔画像抽出装置が知られている(例えば、特許文献1参照。)。この装置では、最も高い顔画像の評価値が得られると考えられる範囲の再生を指示する。また、ROI領域を特定するための情報を符号化して、符号化した画像と、符号化した上記情報を明示的に含めて、符号化ストリームを生成する画像符号化装置が知られている(例えば、特許文献2参照。)。
上記特許文献に記載されたように、フレームを間引いて顔領域などのROI領域を特定すると、間引かれて失われたフレームのROI領域に関する情報を残すことができない。このため、ROI領域を検出し損ねた場合には、正確なROI領域を後で特定することできなくなる場合がある。 As described in the above-mentioned patent document, if a frame is thinned and an ROI region such as a face region is specified, information on the ROI region of the frame lost by thinning cannot be left. For this reason, if the ROI area is missed, it may not be possible to specify the exact ROI area later.
上記課題を解決するために、本発明の第1の形態によると、画像処理システムであって、異なるタイミングで撮像された複数の撮像画像を取得する画像取得部と、複数の撮像画像のそれぞれから特徴領域を検出する特徴領域検出部と、複数の撮像画像の中から、一部の撮像画像を選択する画像選択部と、複数の撮像画像から検出された複数の特徴領域を含む領域を示す情報を、一部の撮像画像に対応づけて出力する出力部とを備える。 In order to solve the above-described problem, according to a first aspect of the present invention, an image processing system includes an image acquisition unit that acquires a plurality of captured images captured at different timings, and a plurality of captured images. Information indicating a feature region detection unit that detects a feature region, an image selection unit that selects some captured images from a plurality of captured images, and a region that includes a plurality of feature regions detected from the plurality of captured images Are output in association with some captured images.
本発明の第2の形態によると、画像処理方法であって、異なるタイミングで撮像された複数の撮像画像を取得する画像取得段階と、複数の撮像画像のそれぞれから特徴領域を検出する特徴領域検出段階と、複数の撮像画像の中から、一部の撮像画像を選択する画像選択段階と、複数の撮像画像から検出された複数の特徴領域を含む領域を示す情報を、一部の撮像画像に対応づけて出力する出力段階とを備える。 According to the second aspect of the present invention, there is provided an image processing method, an image acquisition stage for acquiring a plurality of captured images captured at different timings, and a feature region detection for detecting a feature region from each of the plurality of captured images. Information indicating a stage, an image selection stage for selecting a part of the picked-up images from the plurality of picked-up images, and a region including a plurality of feature areas detected from the plurality of picked-up images. And an output stage for outputting in association with each other.
本発明の第3の形態によると、画像処理装置用のプログラムであって、コンピュータを、異なるタイミングで撮像された複数の撮像画像を取得する画像取得部、複数の撮像画像のそれぞれから特徴領域を検出する特徴領域検出部、複数の撮像画像の中から、一部の撮像画像を選択する画像選択部、複数の撮像画像から検出された複数の特徴領域含む領域を示す情報を、一部の撮像画像に対応づけて出力する出力部として機能させる。 According to the third aspect of the present invention, there is provided a program for an image processing device, wherein the computer acquires an image acquisition unit that acquires a plurality of captured images captured at different timings, and a feature region from each of the plurality of captured images. A feature region detection unit to detect, an image selection unit to select a part of the picked-up image from a plurality of picked-up images, a part of information indicating a region including a plurality of feature regions detected from the plurality of picked-up images It functions as an output unit that outputs images in association with images.
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.
図1は、一実施形態に係わる画像処理システム10の一例を示す。画像処理システム10は、画像における特徴的な領域の画質を維持しながら画像の符号量を削減することを目的とする。なお、画像処理システム10は、以下に説明するように、監視システムとして機能することができる。
FIG. 1 shows an example of an
画像処理システム10は、監視対象空間150を撮像する複数の撮像装置100a−d(以下、撮像装置100と総称する。)、撮像装置100により撮像された撮像画像を処理する複数の画像処理装置120aおよび画像処理装置120b(以下、画像処理装置120と総称する。)、通信ネットワーク110、画像処理装置170、画像DB175、および複数の表示装置180a−d(以下、表示装置180と総称する。)を備える。
The
なお、画像処理装置120aは、撮像装置100aおよび撮像装置100bに接続されており、画像処理装置120bは、撮像装置100cおよび撮像装置100dに接続されている。なお、画像処理装置170および表示装置180は、監視対象空間150と異なる空間160に設けられている。
The image processing device 120a is connected to the
撮像装置100aは、撮像部102aおよび撮像動画圧縮部104aを有している。撮像部102aは、異なるタイミングで連続して監視対象空間150を撮像することによって複数の撮像画像を撮像する。撮像部102aは、複数の撮像画像を含む撮像動画を生成する。撮像動画圧縮部104aは、撮像部102aにより撮像された撮像動画をMPEG符号化等により圧縮して、撮像動画データを生成する。このように、撮像装置100aは、監視対象空間150を撮像して得られた撮像動画を符号化して撮像動画データを生成する。撮像装置100aは、当該撮像動画データを、撮像装置100aが接続されている画像処理装置120aに出力する。
The
なお、撮像装置100b、撮像装置100c、および撮像装置100dは、それぞれ撮像装置100aと同様の構成を有するので、撮像装置100b、撮像装置100c、および撮像装置100dの各構成要素の説明を省略する。なお、撮像装置100bは、生成した撮像動画データを撮像装置100bが接続されている画像処理装置120aに出力する。また、撮像装置100cおよび撮像装置100dは、生成した撮像動画データを、画像処理装置120bに出力する。このようにして、画像処理装置120は、撮像装置100により生成された撮像動画データを、それぞれが接続された撮像装置100から取得する。
Note that the
そして、画像処理装置120は、撮像装置100から取得した撮像動画データを復号して撮像動画を取得する。画像処理装置120は、取得した撮像動画に含まれる複数の撮像画像のそれぞれから、人物130が撮像された領域、車輌等の移動体140が撮像された領域等のように、特徴の種類が異なる複数の特徴領域を検出する。そして、画像処理装置120は、画像処理装置170に送信すべき撮像画像を選択して、選択した撮像画像を圧縮した圧縮動画データを生成する。
Then, the
また、画像処理装置120は、送信すべき撮像画像として選択された撮像画像から検出された特徴領域を特定する情報と、当該送信すべき撮像画像として選択されていない撮像画像から検出された特徴領域を特定する情報とを含む特徴領域情報を生成する。そして、画像処理装置120は、特徴領域情報を圧縮動画データに付帯して、通信ネットワーク110を通じて画像処理装置170に送信する。
Further, the
画像処理装置170は、特徴領域情報が対応づけられた圧縮動画データを画像処理装置120から受信する。そして、画像処理装置170は、受信した圧縮動画データを、対応づけられている特徴領域情報を用いて伸張して表示用動画を生成して、生成した表示用動画を表示装置180に供給する。表示装置180は、画像処理装置170から供給された表示用動画を表示する。
The
また、画像処理装置170は、圧縮動画データに対応づけられている特徴領域情報に対応づけて、当該圧縮動画データを画像DB175に記録してもよい。そして、画像処理装置170は、表示装置180からの要求に応じて、画像DB175から圧縮動画データおよび特徴領域情報を読み出して、読み出した圧縮動画データを特徴領域情報を利用して伸張して表示用動画を生成して、表示装置180に供給してもよい。
The
なお、特徴領域情報は、特徴領域の位置、特徴領域の大きさ、特徴領域の数、特徴領域が検出された撮像画像を識別する識別情報等を含むテキストデータ、もしくは当該テキストデータに圧縮、暗号化等の処理が施されたデータであってよい。そして、画像処理装置170は、特徴領域情報が含む特徴領域の位置、特徴領域の大きさ、特徴領域の数等に基づいて、種々の検索条件を満たす撮像画像を特定する。そして、画像処理装置170は、特定した撮像画像を復号して、表示装置180に提供してよい。
The feature area information is text data including the position of the feature area, the size of the feature area, the number of feature areas, identification information for identifying the captured image in which the feature area is detected, or the like, or compressed or encrypted into the text data. It may be data that has been processed. Then, the
このように、画像処理システム10によると、特徴領域を動画に対応づけて記録しているので、動画における所定の条件に適合する撮像画像を高速に検索、頭出しをすることができる。また、画像処理システム10によると、所定の条件に適合する撮像画像だけ復号することができるので、再生指示に即応して速やかに所定の条件に適合する部分動画を表示することができる。
As described above, according to the
また、画像処理システム10によると、撮像画像を間引いて圧縮動画データを生成するので、通信ネットワーク110に送出する圧縮動画データのデータ量を低減することができる。一方で、画像処理システム10によると、間引かれた撮像画像から検出された特徴領域の情報も圧縮動画データに付帯して画像処理装置170に送信するので、画像処理装置170において特徴領域の位置をより精密に検出し直したり、特徴領域の画像をより詳細に解析したりすることが容易になる。
Further, according to the
図2は、画像処理装置120のブロック構成の一例を示す。画像処理装置120は、画像取得部250および画像処理部200を備える。画像取得部250は、圧縮動画取得部201および圧縮動画伸張部202を有する。
FIG. 2 shows an example of a block configuration of the
圧縮動画取得部201は、圧縮された動画を取得する。具体的には、圧縮動画取得部201は、撮像装置100が生成した、符号化された撮像動画データを取得する。圧縮動画伸張部202は、圧縮動画取得部201が取得した撮像動画データを伸張して、撮像動画に含まれる複数の撮像画像を生成する。具体的には、圧縮動画伸張部202は、圧縮動画取得部201が取得した、符号化された撮像動画データを復号して、撮像動画に含まれる複数の撮像画像を生成する。なお、撮像動画に含まれる撮像画像は、フレーム画像およびフィールド画像であってよい。このように、画像取得部250は、異なるタイミングで撮像された複数の撮像画像を取得する。
The compressed moving image acquisition unit 201 acquires a compressed moving image. Specifically, the compressed moving image acquisition unit 201 acquires encoded captured moving image data generated by the
画像処理部200は、圧縮動画伸張部202により生成された複数の撮像画像を含む撮像動画から特徴領域を検出して、検出した特徴領域の特徴に応じて当該撮像動画に圧縮処理を施して、画像処理装置170に出力する。以下に、画像処理部200の動作の一例を説明する。
The
画像処理部200は、特徴領域検出部203、圧縮制御部210、画像選択部220、重要度算出部240、圧縮部230、対応付け処理部206、および出力部207を有する。特徴領域検出部203は、複数の撮像画像を含む動画から特徴領域を検出する。具体的には、特徴領域検出部203は、複数の撮像画像のそれぞれから特徴領域を検出する。なお、上記における撮像動画は、以下の説明における動画の一例であってよい。
The
例えば、特徴領域検出部203は、動く物体を示すオブジェクトを含む領域を特徴領域として検出してよい。なお、特徴領域検出部203は、複数の撮像画像のそれぞれから、特徴の種類が異なる複数の特徴領域を検出してよい。なお、特徴の種類とは、人物と移動体等のように、オブジェクトの種類を指標にしてよい。オブジェクトの種類は、オブジェクトの形状またはオブジェクトの色の一致度に基づいて決定されてよい。このように、特徴領域検出部203は、複数の撮像画像から、含まれるオブジェクトの種類が異なる複数の特徴領域を検出してよい。
For example, the feature
例えば、特徴領域検出部203は、予め定められた形状パターンに予め定められた一致度以上の一致度で一致するオブジェクトを複数の撮像画像のそれぞれから抽出して、抽出したオブジェクトを含む撮像画像における領域を、特徴の種類が同じ特徴領域として検出してよい。なお、形状パターンは、特徴の種類毎に複数定められてよい。また、形状パターンの一例としては、人物の顔の形状パターンを例示することができる。なお、複数の人物毎に異なる顔のパターンが定められてよい。これにより、特徴領域検出部203は、異なる人物をそれぞれ含む異なる領域を、異なる特徴領域として検出することができる。
For example, the feature
特徴領域検出部203は、検出した特徴領域を示す情報を、画像選択部220、圧縮制御部210、および重要度算出部240に供給する。なお、特徴領域を示す情報とは、特徴領域の位置を示す特徴領域の座標情報、特徴領域の種類を示す種類情報、特徴領域が検出された撮像動画を識別する情報、および特徴領域の検出信頼度を含む。
The feature
画像選択部220は、複数の撮像画像の中から、一部の撮像画像を選択する。具体的には、画像選択部220は、画像処理装置170に送信すべき一部の撮像画像を選択する。例えば、画像選択部220は、複数の撮像画像の中から、撮像画像の撮像時刻に応じて一部の撮像画像を選択してよい。例えば、画像選択部220は、予め定められた時間間隔で撮像された一部の撮像画像を選択してよい。
The
他にも、画像選択部220は、複数の撮像画像の中から、予め定められた条件に適合する一部の撮像画像を選択してよい。また、画像選択部220は、特徴領域検出部203が検出した特徴領域の画像内容が予め定められた条件に適合する一部の撮像画像を選択してよい。また、画像選択部220は、特徴領域検出部203が検出した特徴領域の数が予め定められた値より多い一部の撮像画像を選択してよい。
In addition, the
重要度算出部240は、特徴領域検出部203が検出した複数の特徴領域のそれぞれの検出信頼度に基づいて、一部の撮像画像における複数の画像領域毎に、重要度を算出する。なお、重要度算出部240による重要度の算出方法については後に説明する。重要度算出部240は、算出した各画像領域の重要度を示す情報を圧縮制御部210に供給する。
The
圧縮制御部210は、特徴領域検出部203から取得した特徴領域を示す情報および重要度算出部240から取得した重要度を示す情報に基づいて、特徴領域に応じて圧縮部230による動画の圧縮処理を制御する。圧縮部230は、特徴領域検出部203により検出された特徴領域以外の領域、または重要度が予め定められた値より大きい領域以外の領域の画質を低減することによって、画像選択部220によって選択された一部の撮像画像を圧縮する。なお、圧縮部230は、圧縮された複数の撮像画像を複数含む圧縮動画を生成する。なお、圧縮部230のより具体的な圧縮動作については、後に説明する。
Based on the information indicating the feature area acquired from the feature
対応付け処理部206は、一部の撮像画像以外の撮像画像から検出された特徴領域を特定する情報を、一部の撮像画像に対応づける。具体的には、対応付け処理部206は、一部の撮像画像以外の撮像画像から検出された特徴領域を特定する情報を、一部の撮像画像を動画構成画像として含む圧縮動画に対応づける。なお、対応付け処理部206は、一部の撮像画像以外の撮像画像から検出された特徴領域を特定する情報および一部の撮像画像から検出された特徴領域を特定する情報を、一部の撮像画像に対応づけてよい。
The
なお、特徴領域を特定する情報は、一部の撮像画像以外の撮像画像から検出された特徴領域の位置を示す情報を含んでよい。また、特徴領域を特定する情報は、一部の撮像画像以外の撮像画像が撮像されたタイミングを示す情報を含んでよい。また、特徴領域を特定する情報は、一部の撮像画像以外の撮像画像から検出された特徴領域の大きさ(例えば、面積)を示す情報を含んでよい。 Note that the information specifying the feature region may include information indicating the position of the feature region detected from the captured image other than some captured images. Further, the information specifying the feature region may include information indicating the timing at which captured images other than some captured images are captured. In addition, the information specifying the feature region may include information indicating the size (for example, area) of the feature region detected from the captured image other than some captured images.
出力部207は、対応付け処理部206によって対応付けされた一部の撮像画像以外の撮像画像から検出された特徴領域を特定する情報を、画像処理装置170に出力する。このように、出力部207は、一部の撮像画像以外の撮像画像から検出された特徴領域を特定する情報および一部の撮像画像から検出された特徴領域を特定する情報を、一部の撮像画像に対応づけて出力する。例えば、出力部207は、一部の撮像画像以外の撮像画像から検出された特徴領域の位置を示す情報、一部の撮像画像以外の撮像画像が撮像されたタイミングを示す情報、あるいは一部の撮像画像以外の撮像画像から検出された特徴領域の大きさを示す情報を、一部の撮像画像に対応づけて出力することができる。
The
なお、対応付け処理部206による対応付け動作の他の例を以下に説明する。対応付け処理部206は、複数の撮像画像から検出された複数の特徴領域を含む領域を示す情報を、一部の撮像画像に対応づける。具体的には、対応付け処理部206は、複数の撮像画像から検出された複数の特徴領域を含む領域を示す情報を、一部の撮像画像を動画構成画像として含む圧縮動画に対応づける。なお、対応付け処理部206は、複数の撮像画像から検出された複数の特徴領域の少なくとも一部を含む領域を示す情報を、一部の撮像画像に対応づけてよい。
Another example of the association operation by the
なお、複数の撮像画像から検出された複数の特徴領域を含む領域を示す情報は、複数の撮像画像から検出された複数の特徴領域を包含する領域を示す情報を含んでよい。また、複数の撮像画像から検出された複数の特徴領域を含む領域を示す情報は、複数の撮像画像から検出された複数の特徴領域の集合領域を示す情報を含んでよい。また、複数の撮像画像から検出された複数の特徴領域を含む領域を示す情報は、重要度算出部240が算出した重要度が予め定められた値より大きい画像領域を示す情報を含んでよい。
Note that the information indicating a region including a plurality of feature regions detected from a plurality of captured images may include information indicating a region including a plurality of feature regions detected from a plurality of captured images. Further, the information indicating the area including the plurality of feature areas detected from the plurality of captured images may include information indicating the set area of the plurality of feature areas detected from the plurality of captured images. Further, the information indicating a region including a plurality of feature regions detected from a plurality of captured images may include information indicating an image region whose importance calculated by the
なお、重要度算出部240は、特徴領域検出部203が検出した複数の特徴領域のそれぞれ検出信頼度に基づいて、複数の撮像画像から検出された複数の特徴領域の集合領域における複数の画像領域毎に、重要度を算出する。例えば、重要度算出部240は、集合領域における複数の画像領域毎に当該画像領域を含む特徴領域の検出信頼度を加算した加算値を算出して、当該加算値に基づいて集合領域における複数の画像領域毎に重要度を算出する。例えば、重要度算出部240は、加算値が大きいほどより大きい重要度を算出してよい。また、重要度算出部240は、加算値に応じて予め定められた重要度を、複数の画像領域毎に算出してよい。
Note that the importance
このようにして、出力部207は、複数の撮像画像から検出された複数の特徴領域を含む領域を示す情報を、一部の撮像画像に対応づけて出力する。より具体的には、出力部207は、複数の撮像画像から検出された複数の特徴領域を包含する領域を示す情報、複数の撮像画像から検出された複数の特徴領域の集合領域を示す情報、あるいは集合領域を示す情報および重要度算出部240が算出した重要度を、一部の撮像画像に対応づけて出力することができる。
In this manner, the
なお、対応付け処理部206は、一部の撮像画像以外の撮像画像から検出された特徴領域の特徴の種類を示す情報を、一部の撮像画像に対応づけてもよい。また、対応付け処理部206は、一部の撮像画像以外の撮像画像から検出された特徴領域に含まれるオブジェクトの種類を示す情報を、一部の撮像画像に対応づけてもよい。このようにして、出力部207は、一部の撮像画像以外の撮像画像から検出された特徴領域の特徴の種類を示す情報、または一部の撮像画像以外の撮像画像から検出された特徴領域に含まれるオブジェクトの種類を示す情報を、一部の撮像画像に対応づけて出力することができる。
Note that the
図3は、圧縮部230のブロック構成の一例を示す。圧縮部230は、画像分割部232、複数の固定値化部234a−c(以下、固定値化部234と総称する場合がある。)、および複数の圧縮処理部236a−d(以下、圧縮処理部236と総称する場合がある。)を有する。圧縮部230は、以下に説明するように、特徴領域と特徴領域以外の領域とを異なる画質で圧縮する。
FIG. 3 shows an example of a block configuration of the
なお、図3、図4、および図6の説明における"複数の撮像画像"は、圧縮部230による圧縮対象の撮像動画として、画像選択部220から圧縮部230に供給された撮像画像であってよい。つまり、本図の以下の説明における"複数の撮像画像"は、画像選択部220によって選択された一部の撮像画像であってよい。また、以下の説明における"特徴領域"は、画像選択部220によって選択された一部の撮像画像から検出された特徴領域と、当該一部の撮像画像以外の撮像画像から検出された特徴領域とを含む領域であってよい。例えば、以下の説明における"特徴領域"は、上述した包含領域または集合領域であってよい。
Note that the “plurality of captured images” in the description of FIGS. 3, 4, and 6 are captured images supplied from the
画像分割部232は、複数の撮像画像を、特徴領域と、特徴領域以外の背景領域とに分割する。より具体的には、画像分割部232は、複数の撮像画像を、複数の特徴領域のそれぞれと、特徴領域以外の背景領域とに分割する。このように、画像分割部232は、複数の撮像画像のそれぞれを、特徴領域と背景領域とに分割する。そして、圧縮処理部236は、特徴領域の画像である特徴領域画像と背景領域の画像である背景領域画像とを、それぞれ異なる強度で圧縮する。具体的には、圧縮処理部236は、特徴領域画像を複数含む特徴領域動画と背景領域画像を複数含む背景領域動画とを、それぞれ異なる強度で圧縮する。
The
具体的には、画像分割部232は、複数の撮像画像を分割することにより、複数の特徴の種類毎に特徴領域動画を生成する。そして、固定値化部234は、特徴の種類毎に生成された複数の特徴領域動画に含まれる特徴領域画像のそれぞれについて、それぞれの特徴の種類の特徴領域以外の領域の画素値を固定値化する。具体的には、固定値化部234は、特徴領域以外の領域の画素値を予め定められた画素値にする。そして、圧縮処理部236は、特徴の種類毎に、複数の特徴領域動画を圧縮する。例えば、圧縮処理部236は、特徴の種類毎に、複数の特徴領域動画をMPEG圧縮する。
Specifically, the
固定値化部234a、固定値化部234b、および固定値化部234cは、それぞれ第1の特徴の種類の特徴領域動画、第2の特徴の種類の特徴領域動画、および第3の特徴の種類の特徴領域動画を固定値化する。そして、圧縮処理部236a、圧縮処理部236b、および圧縮処理部236cは、第1の特徴の種類の特徴領域動画、第2の特徴の種類の特徴領域動画、および第3の特徴の種類の特徴領域動画を圧縮する。
The fixed
なお、圧縮処理部236a−cは、特徴の種類に応じて予め定められた強度で特徴領域動画を圧縮する。例えば、圧縮処理部236は、特徴の種類に応じて予め定められた異なる解像度に特徴領域動画を変換して、変換した特徴領域動画を圧縮してよい。他にも、圧縮処理部236は、MPEG符号化により特徴領域動画を圧縮する場合には、特徴の種類に応じて予め定められた異なる量子化パラメータで特徴領域動画を圧縮してよい。
Note that the
なお、圧縮処理部236dは、背景領域動画を圧縮する。なお、圧縮処理部236dは、圧縮処理部236a−cのいずれによる強度より高い強度で背景領域動画を圧縮してよい。圧縮処理部236によって圧縮された特徴領域動画および背景領域動画は、対応付け処理部206に供給される。
The
なお、特徴領域以外の領域が固定値化部234によって固定値化されているので、圧縮処理部236がMPEG符号化等によって予測符号化する場合に、特徴領域以外の領域において予測画像との間の画像の差分量を著しく低減することができる。したがって、特徴領域動画の圧縮率を著しく高めることができる。 Since regions other than the feature region have been fixed values by the fixed value unit 234, when the compression processing unit 236 performs predictive encoding by MPEG encoding or the like, the region other than the feature region may be connected to the predicted image. The amount of difference between the images can be significantly reduced. Therefore, the compression rate of the feature area moving image can be significantly increased.
図4は、画像処理装置170のブロック構成の一例を示す。画像処理装置170は、圧縮画像取得部301、対応付け解析部302、伸張制御部310、伸張部320、合成部330、特徴領域処理部350、および出力部340を備える。圧縮画像取得部301は、圧縮部230により圧縮された撮像画像を含む圧縮動画を取得する。具体的には、圧縮画像取得部301は、複数の特徴領域動画および背景領域動画を含む圧縮動画を取得する。より具体的には、圧縮画像取得部301は、特徴領域情報が付帯された圧縮動画を取得する。
FIG. 4 shows an example of a block configuration of the
そして、対応付け解析部302は、複数の特徴領域動画および背景領域動画と特徴領域情報とに分離して、複数の特徴領域動画および背景領域動画を伸張部320に供給する。また、対応付け解析部302は、特徴領域情報を解析して、特徴領域の位置および特徴の種類を伸張制御部310および特徴領域処理部350に供給する。伸張制御部310は、対応付け解析部302から取得した特徴領域の位置および特徴の種類に応じて、伸張部320による伸張処理を制御する。例えば、伸張制御部310は、特徴領域の位置および特徴の種類に応じて圧縮部230が動画の各領域を圧縮した圧縮方式に応じて、伸張部320に圧縮動画が示す動画の各領域を伸張させる。
Then, the
以下に、伸張部320が有する各構成要素の動作を説明する。伸張部320は、復号器322a−d(以下、復号器322と総称する。)、合成部330、および出力部340を有する。復号器322は、符号化された複数の特徴領域動画および背景領域動画のいずれかを復号する。具体的には、復号器322a、復号器322b、復号器322c、および復号器322dは、それぞれ第1特徴領域動画、第2特徴領域動画、第3特徴領域動、および背景領域動画を復号する。
Hereinafter, the operation of each component included in the
合成部330は、伸張部320によって伸張された複数の特徴領域動画および背景領域動画を合成して、1つの表示動画を生成する。具体的には、合成部330は、背景領域動画に含まれる撮像画像に、複数の特徴領域動画に含まれる撮像画像上の特徴領域の画像を合成することによって、1つの表示動画を生成する。合成部330によって生成された表示動画は、特徴領域処理部350に供給される。
The synthesizing
特徴領域処理部350は、表示動画において、特徴領域に関連する画像処理または特徴領域の画像を解析する。特徴領域処理部350により処理された表示動画は、出力部340に供給される。出力部340は、対応付け解析部302から取得した特徴領域情報および表示動画を表示装置180または画像DB175に出力する。なお、画像DB175は、特徴領域情報が示す特徴領域の位置、特徴領域の特徴の種類、特徴領域の数を、表示動画に含まれる撮像画像を識別する情報に対応づけて、ハードディスク等の不揮発性の記録媒体に記録してよい。
The feature
図5は、特徴領域処理部350のブロック構成の一例を示す。特徴領域処理部350は、特徴領域画像選択部352、特徴領域特定部354、信頼度算出部356、関連性算出部358、および画像処理部360を有する。
FIG. 5 shows an example of a block configuration of the feature
特徴領域画像選択部352は、合成部330から供給された表示動画に含まれる複数の撮像画像を取得する。このように、特徴領域画像選択部352は、一部の撮像画像以外の撮像画像から検出された特徴領域を示す情報が対応づけて出力された一部の撮像画像を、特徴領域を有する撮像画像として選択する。このように、特徴領域画像選択部352により一部の撮像画像以外の撮像画像から特徴領域が検出されている撮像画像を選択される。以後の処理においては、それらの特徴領域の情報を用いて、表示動画に対して処理が施される。
The feature area
特徴領域特定部354、信頼度算出部356、および関連性算出部358は、特徴領域画像選択部352によって選択された撮像画像および対応付け解析部302から供給される特徴領域の情報を取得する。特徴領域特定部354は、特徴領域画像選択部352によって選択された撮像画像に対応づけて出力された一部の撮像画像以外の撮像画像から検出された特徴領域の位置を示す情報に基づいて、当該一部の撮像画像から特徴領域を特定する。例えば、特徴領域特定部354は、一部の撮像画像以外の撮像画像から検出された特徴領域の位置の近傍の領域から、当該一部の撮像画像における特徴領域を特定してよい。
The feature
このように、特徴領域特定部354は、出力部207から一部の撮像画像に対応づけて出力された一部の撮像画像以外の撮像画像から検出された特徴領域の位置を示す情報に基づいて、当該一部の撮像画像から特徴領域を特定することができる。これにより、画像処理装置170は、より高い精度で特徴領域を検出し直すことができる。
As described above, the feature
なお、特徴領域特定部354は、対応付け解析部302から集合領域を示す情報を取得して、一部の撮像画像における当該集合領域内から特徴領域を検出し直してもよい。このように、特徴領域特定部354は、一部の撮像画像に対応づけて出力された集合領域を示す情報に基づいて、当該一部の撮像画像から特徴領域を特定することができる。このように、画像処理装置170は、一部の撮像画像以外の領域から検出された特徴領域が示す画像領域からも、特徴領域を特定することができる。このため、画像処理システム10によると、一部の撮像画像から特徴領域を検出し損ねる確率を低減しつつ、画像処理装置170における特徴領域を特定する特定対象領域を狭めることができる。このため、画像処理装置170は、高速かつ高精度で特徴領域を特定することができる。
Note that the feature
信頼度算出部356は、特徴領域画像選択部352によって選択された撮像画像に対応づけて出力された一部の撮像画像以外の撮像画像から検出された特徴領域の位置を示す情報に基づいて、一部の撮像画像における特徴領域の検出信頼度を算出する。例えば、信頼度算出部356は、一部の撮像画像以外の撮像画像から検出された特徴領域の位置との間の位置の差が予め定められた値より小さい一部の撮像画像における特徴領域の検出信頼度を、より高く算出してよい。
The
例えば、信頼度算出部356は、一部の撮像画像以外の撮像画像から検出された特徴領域との間で、予め定められた値より高い位置の相関性を有する位置に検出されている一部の撮像画像における特徴領域の検出信頼度を、より高く算出してよい。このように、信頼度算出部356は、出力部207から一部の撮像画像に対応づけて出力された一部の撮像画像以外の撮像画像から検出された特徴領域の位置を示す情報に基づいて、一部の撮像画像における特徴領域の検出信頼度を算出することができる。これにより、画像処理装置170は、一部の撮像画像において検出された特徴領域の確からしさを再確認することができる。
For example, the
関連性算出部358は、特徴領域画像選択部352によって選択された撮像画像に対応づけて出力された一部の撮像画像以外の撮像画像から検出された特徴領域の位置を示す情報に基づいて、異なる一部の撮像画像から検出された特徴領域の関連性を算出する。例えば、関連性算出部358は、異なる一部の撮像画像に対応づけて出力された特徴領域の位置の連続性がより高い場合に、より高い特徴領域の関連性を算出する。また、関連性算出部358は、異なる一部の撮像画像の間において、当該異なる一部の撮像画像に対応づけて出力された特徴領域の位置が示す特徴領域の移動方向の一致度が予め定められた値より大きい場合に、より高い特徴領域の関連性を算出してよい。
The
このように、関連性算出部358は、出力部207から一部の撮像画像に対応づけて出力された一部の撮像画像以外の撮像画像から検出された特徴領域の位置を示す情報に基づいて、異なる一部の撮像画像から検出された特徴領域の関連性を算出する。このため、画像処理装置170は、表示動画に含まれる異なる撮像画像において同じ移動体が検出されている特徴領域を、より高い精度で特定することができる。
As described above, the
画像処理部360は、特徴領域特定部354が特定した特徴領域の情報、信頼度算出部356が算出した検出信頼度、および関連性算出部358が算出した関連性を取得する。画像処理部360は、特徴領域特定部354が特定した特徴領域を強調する画像処理を表示動画に施してよい。例えば、画像処理部360は、特徴領域特定部354が特定した特徴領域を示す枠などのマーカを、表示動画に重畳してよい。なお、画像処理部360は、特徴領域特定部354が特定した特徴領域を、信頼度算出部356が算出した検出信頼度がより高いほどより強調する画像処理を、表示動画に施してよい。
The
また、画像処理部360は、関連性算出部358が算出した関連性が予め定められた値より高い特徴領域の組と、他の特徴領域の組とを視覚的に区別することができる上記マーカを、表示動画に重畳してよい。例えば、画像処理部360は、関連性が予め定められた値より高い特徴領域の組を示すマーカとしての同色のマーカを、表示動画に重畳させてよい。また、画像処理部360は、異なる特徴領域の組を示すマーカとしての異なる色のマーカを、表示動画に重畳してよい。画像処理部360は、画像処理を施した表示動画を出力部340に供給する。
In addition, the
図6は、圧縮部230の他のブロック構成の一例を示す。本構成における圧縮部230は、特徴の種類に応じた空間スケーラブルな符号化処理によって複数の撮像画像を圧縮する。
FIG. 6 shows an example of another block configuration of the
本構成における圧縮部230は、画質変換部510、差分処理部520、および符号化部530を有する。差分処理部520は、複数の階層間差分処理部522a−d(以下、階層間差分処理部522と総称する。)を含む。符号化部530は、複数の符号器532a−d(以下、符号器532と総称する。)を含む。
The
画質変換部510は、画像選択部220から複数の撮像画像を取得する。また、画質変換部510は、特徴領域検出部203が検出した特徴領域を特定する情報および特徴領域の特徴の種類を特定する情報を取得する。そして、画質変換部510は、撮像画像を複製することにより、特徴領域の特徴の種類の数の撮像画像を生成する。そして、画質変換部510は、生成した撮像画像を、特徴の種類に応じた解像度の画像に変換する。
The image
例えば、画質変換部510は、背景領域に応じた解像度に変換された撮像画像(以後、低解像度画像と呼ぶ。)、第1の特徴の種類に応じた第1解像度に変換された撮像画像(第1解像度画像と呼ぶ。)、第2の特徴の種類に応じた第2解像度に変換された撮像画像(第2解像度画像と呼ぶ。)、および第3の特徴の種類に応じた第3解像度に変換された撮像画像(第3解像度画像と呼ぶ。)を生成する。なお、ここでは、第1解像度画像は低解像度画像より解像度が高く、第2解像度画像は第1解像度画像より解像度が高く、第3解像度画像は第2解像度画像より解像度が高いとする。
For example, the image
そして、画質変換部510は、低解像度画像、第1解像度画像、第2解像度画像、および第3解像度画像を、それぞれ階層間差分処理部522d、階層間差分処理部522a、階層間差分処理部522b、および階層間差分処理部522cに供給する。なお、画質変換部510は、複数の撮像画像のそれぞれについて上記の画質変換処理することにより、階層間差分処理部522のそれぞれに動画を供給する。
Then, the image
なお、画質変換部510は、特徴領域の特徴の種類に応じて、階層間差分処理部522のそれぞれに供給する動画のフレームレートを変換してよい。例えば、画質変換部510は、階層間差分処理部522aに供給する動画より低いフレームレートの動画を階層間差分処理部522dに供給してよい。また、画質変換部510は、階層間差分処理部522bに供給する動画より低いフレームレートの動画を階層間差分処理部522aに供給してよく、階層間差分処理部522cに供給する動画より低いフレームレートの動画を階層間差分処理部522bに供給してよい。なお、画質変換部510は、特徴領域の特徴の種類に応じて撮像画像を間引くことによって、階層間差分処理部522に供給する動画のフレームレートを変換してよい。
Note that the image
階層間差分処理部522dおよび符号器532dは、複数の低解像度画像を含む背景領域動画を予測符号化する。具体的には、階層間差分処理部522は、他の低解像度画像から生成された予測画像との差分画像を生成する。そして、符号器532dは、差分画像を空間周波数成分に変換して得られた変換係数を量子化して、量子化された変換係数をエントロピー符号化等により符号化する。なお、このような予測符号化処理は、低解像度画像の部分領域毎に行われてよい。
The inter-layer
また、階層間差分処理部522aは、画質変換部510から供給された複数の第1解像度画像を含む第1特徴領域動画を予測符号化する。同様に、階層間差分処理部522bおよび階層間差分処理部522cは、それぞれ複数の第2解像度画像を含む第2特徴領域動画および複数の第3解像度画像を含む第3特徴領域動画を予測符号化する。以下に、階層間差分処理部522aおよび符号器532aの具体的な動作について説明する。
Further, the inter-layer
階層間差分処理部522aは、符号器532dによる符号化後の第1解像度画像を復号して、復号した画像を第1解像度と同じ解像度の画像に拡大する。そして、階層間差分処理部522aは、拡大した画像と低解像度画像との間の差分画像を生成する。このとき、階層間差分処理部522aは、背景領域における差分値を0にする。そして、符号器532aは、差分画像を符号器532dと同様に符号化する。なお、階層間差分処理部522aおよび符号器532aによる符号化処理は、第1解像度画像の部分領域毎にされてよい。
The inter-layer
なお、階層間差分処理部522aは、第1解像度画像を符号化する場合に、低解像度画像との間の差分画像を符号化した場合に予測される符号量と、他の第1解像度画像から生成された予測画像との間の差分画像を符号化した場合に予測される符号量とを比較する。後者の符号量の方が小さい場合には、階層間差分処理部522aは、他の第1解像度画像から生成された予測画像との間の差分画像を生成する。なお、階層間差分処理部522aは、低解像度画像または予測画像との差分をとらずに符号化した方が符号量が小さくなることが予測される場合には、低解像度画像または予測画像との間で差分をとらなくてもよい。
Note that, when the first resolution image is encoded, the inter-layer
なお、階層間差分処理部522aは、背景領域における差分値を0にしなくてもよい。この場合、符号器532aは、特徴領域以外の領域における差分情報に対する符号化後のデータを0にしてもよい。例えば、符号器532aは、周波数成分に変換した後の変換係数を0にしてよい。なお、階層間差分処理部522dが予測符号化した場合の動きベクトル情報は、階層間差分処理部522aに供給される。階層間差分処理部522aは、階層間差分処理部522dから供給された動きベクトル情報を用いて、予測画像用の動きベクトルを算出してよい。
Note that the inter-layer
なお、階層間差分処理部522bおよび符号器532bの動作は、第2解像度画像を符号化するという点、および第2解像度画像を符号化する場合に、符号器532aによる符号化後の第1解像度画像との差分をとる場合があるという点を除いて、階層間差分処理部522bおよび符号器532bの動作は階層間差分処理部522aおよび符号器532aの動作と略同一であるので、説明を省略する。同様に、階層間差分処理部522cおよび符号器532cの動作は、第3解像度画像を符号化するという点、および第3解像度画像を符号化を符号化する場合に、符号器532bによる符号化後の第2解像度画像との差分をとる場合があるという点を除いて、階層間差分処理部522aおよび符号器532aの動作と略同一であるので、説明を省略する。
Note that the operations of the inter-layer
以上説明したように、画質変換部510は、複数の撮像画像のそれぞれから、画質を低画質にした低画質画像、および少なくとも特徴領域において低画質画像より高画質な特徴領域画像を生成する。そして、差分処理部520は、特徴領域画像における特徴領域の画像と、低画質画像における特徴領域の画像との間の差分画像を示す特徴領域差分画像を生成する。そして、符号化部530は、特徴領域差分画像および低画質画像をそれぞれ符号化する。
As described above, the image
また、画質変換部510は、複数の撮像画像から解像度が低減された低画質画像を生成して、差分処理部520は、特徴領域画像における特徴領域の画像と、低画質画像における特徴領域の画像を拡大した画像との間の特徴領域差分画像を生成する。また、差分処理部520は、特徴領域において特徴領域画像と拡大した画像との間の差分が空間周波数領域に変換された空間周波数成分を持ち、特徴領域以外の領域において空間周波数成分のデータ量が低減された特徴領域差分画像を生成する。
In addition, the image
以上説明したように、圧縮部230は、解像度が異なる複数の階層間の画像の差分を符号化することによって階層的に符号化する。このことからも明らかなように、本構成の圧縮部230による圧縮方式の一部は、H.264/SVCによる圧縮方式を含むことが明らかである。
As described above, the
図7は、撮像装置100によって撮像された撮像画像700の一例を示す。複数の撮像画像700−1〜20(以後、撮像画像700と総称する。)は、撮像装置100によって撮像された撮像画像を示す。撮像装置100は、予め定められた基準撮像レートより高い撮像レートで被写体を連続的に撮像してよい。例えば、撮像部102は、表示装置180が表示することができる表示レートより高いレートの撮像レートで被写体を撮影してよい。他にも、撮像部102は、監視対象である監視対象物の動き速度に応じて予め定められた基準撮像レートより高い撮像レートで被写体を連続的に撮像してよい。
FIG. 7 shows an example of a captured image 700 captured by the
なお、特徴領域検出部203は、撮像画像700のそれぞれから、特徴領域710−1〜20(以後、特徴領域710と総称する。)および特徴領域720−1〜20(以後、特徴領域720と総称する。)を検出している。そして、画像選択部220は、撮像画像700のうち、連続して撮像された予め定められた数の撮像画像700の中から1つずつ、画像処理装置170に出力すべき撮像画像700を選択する。
It should be noted that the feature
本図では、画像選択部220は、一例として連続する十個の撮像画像700を含む組のそれぞれから、出力すべき撮像画像700を1つずつ選択している。具体的には、画像選択部220は、撮像画像700−1〜10の中から、撮像画像700−5を選択しており、撮像画像700−11〜20の中から、撮像画像700−15を選択している。
In this figure, the
対応付け処理部206は、特徴領域710−1〜10の位置および特徴領域の種類を示す情報、特徴領域720−1〜10の位置および特徴領域の種類を示す情報、およびそれらの特徴領域710−1〜10および特徴領域720−1〜10が検出された撮像画像700−1〜10が撮像された撮像タイミングを示す情報を、撮像画像700−5を識別する情報に付帯する。なお、撮像画像700−5を識別する情報は、撮像画像700を含む撮像動画において撮像画像700−5を識別するフレームIDであってよく、画像処理装置170に出力される撮像画像700の中で撮像画像700−5を識別するフレームIDであってもよい。同様に、対応付け処理部206は、特徴領域710−11〜20の位置および特徴領域の種類を示す情報、特徴領域720−11〜20の位置および特徴領域の種類を示す情報、およびそれらの特徴領域710−11〜20および特徴領域720−11〜20が検出された撮像画像700−11〜20が撮像された撮像タイミングを示す情報を、撮像画像700−15を識別する情報に付帯する。
The
図8は、撮像画像700−5に付帯された情報の一例を示す。対応付け処理部206は、特徴領域710−5および特徴領域720−5の位置を示す情報の一例として、特徴領域710−5および特徴領域720−5の位置を示す座標を付帯する。具体的には、対応付け処理部206は、特徴領域710−5および特徴領域720−5が矩形である場合、当該矩形の対角の頂点P1、P2、P3、P4の座標を付帯する。なお、これらの矩形の対角を示す情報により、矩形の特徴領域の形および大きさも同時に規定される。
FIG. 8 shows an example of information attached to the captured image 700-5. The
また、対応付け処理部206は、特徴の種別を識別する識別番号を付帯してよい。例えば、対応付け処理部206は、特徴領域710−5の識別番号としてtype=2を示す情報を、特徴領域720−5の識別番号としてtype=1を示す情報を付帯する。また、対応付け処理部206は、撮像画像700−5が撮像された時刻t=xxxを付帯する。なお、上記の説明では、対応付け処理部206が撮像画像700−5から検出された特徴領域の情報を付帯する場合を例に挙げて、対応付け処理部206の動作を説明したが、対応付け処理部206は、撮像画像700−5に対応づけられる他の撮像画像700から検出された特徴領域の情報についても、同様の情報を付帯する。
Further, the
図9は、特徴領域特定部354が特徴領域を特定する画像領域を示す。特徴領域特定部354は、画像選択部220により選択された撮像画像900に付帯された特徴領域の位置情報を対応付け解析部302から取得する。なお、以後の説明では、撮像画像900に付帯された特徴領域の矩形の対角の頂点の座標から算出された特徴領域の重心位置901、重心位置902、重心位置904、および重心位置905を用いて、特徴領域特定部354の動作を説明する。
FIG. 9 shows an image region in which the feature
なお、本図の例では、特徴領域検出部203は撮像画像900から特徴領域を検出できなかったとする。つまり、重心位置901、重心位置902、重心位置904、および重心位置905は、画像選択部220により選択されなかった撮像画像から検出された特徴領域の重心位置を示す。特徴領域特定部354は、上記の撮像タイミングを示す情報から、特徴領域の重心が重心位置901、重心位置902、重心位置904、および重心位置905の順で時間的に移動していることを検出する。したがって、特徴領域特定部354は、重心位置902および重心位置904の間に存在する点を含む画像領域910から、特徴領域を特定する。
In the example of this figure, it is assumed that the feature
なお、特徴領域特定部354は、重心位置901、重心位置902、重心位置904、および重心位置905の座標から、撮像画像900が撮像されたタイミングにおける特徴領域の重心位置の座標を特定してよい。そして、特徴領域特定部354は、当該特定した座標が示す点を含む画像領域910から、特徴領域を特定してもよい。
Note that the feature
なお、特徴領域特定部354は、撮像画像900に付帯された特徴領域の矩形の対角の頂点の座標から、特徴領域の大きさおよび形を推定することができる。そして、特徴領域特定部354は、特定した特徴領域の大きさがより大きい場合に、より大きい画像領域910から特徴領域を特定してよい。例えば、特徴領域特定部354は、複数の特徴領域の大きさの最大値または平均値がより大きい場合に、より大きい画像領域910から特徴領域を特定してよい。また、特徴領域特定部354は、特定した特徴領域の形状と相似する形状の画像領域910から、特徴領域を特定してもよい。
The feature
以上説明したように、特徴領域特定部354は、特徴領域を特定する領域を限定することができる。このため、特徴領域特定部354は、高速に特徴領域を特定することができる。
As described above, the feature
図10は、撮像画像1000に付帯された特徴領域の位置から算出された重心位置の他の一例を示す。重心位置1001、重心位置1002、重心位置1004、および重心位置1005は、画像選択部220により選択されなかった撮像画像から検出された特徴領域の重心位置を示す。そして、重心位置1003は、撮像画像1000において検出された特徴領域の重心位置を示す。
FIG. 10 shows another example of the position of the center of gravity calculated from the position of the feature region attached to the captured
この場合、信頼度算出部356は、撮像画像1000に付帯された特徴領域の重心位置の差に基づいて、撮像画像1000から検出された特徴領域の検出信頼度を算出する。信頼度算出部356は、重心位置1001、重心位置1002、重心位置1004、および重心位置1005から推定される特徴領域の移動方向から、撮像画像1000から検出されるべき特徴領域の位置を推定して、推定された特徴領域の重心位置と重心位置1003の位置の差を算出する。信頼度算出部356は、当該位置の差の大きさがより大きい場合に、撮像画像1000から検出された特徴領域の検出信頼度をより高く算出する。
In this case, the
このようにして、信頼度算出部356は、検出信頼度を容易に算出することができる。このため、画像処理部360は、検出信頼度に応じた適切な画像処理を施すことができる。なお、特徴領域特定部354は、信頼度算出部356が検出した検出信頼度が予め定められた値より低い場合には、撮像画像1000におけるより広い画像領域から特徴領域を特定してもよい。これにより、特徴領域特定部354が特徴領域を特定し損ねてしまう確率を低減することができる。
In this way, the
図11は、撮像画像に付帯された複数種類の特徴領域のそれぞれの位置から算出された重心位置の一例を示す。撮像画像1101、撮像画像1102、および撮像画像1103は、画像選択部220によって選択された撮像画像であるとする。撮像画像1101から検出された第1種類の特徴領域の重心位置は重心位置1111であり、撮像画像1101から検出された第2種類の特徴領域の重心位置は重心位置1121であるとする。
FIG. 11 shows an example of the barycentric position calculated from the respective positions of a plurality of types of feature regions attached to the captured image. The captured
また、撮像画像1102から検出された第1種類の特徴領域の重心位置は重心位置1112であり、撮像画像1102から検出された第2種類の特徴領域の重心位置は重心位置1122であるとする。また、撮像画像1103から検出された第1種類の特徴領域の重心位置は重心位置1113であり、撮像画像1103から検出された第2種類の特徴領域の重心位置は重心位置1123であるとする。
In addition, it is assumed that the barycentric position of the first type feature area detected from the captured
なお、関連性算出部358は、撮像画像1101、撮像画像1102、および撮像画像1103に対応づけられた、画像選択部220によって選択されなかった撮像画像から検出された特徴領域の位置から、それらの重心位置を算出することができる。本図においては、符号が付されていない×印によりそれらの重心位置が示されている。
It should be noted that the
関連性算出部358は、算出された重心位置の連続性から、これら撮像画像1101、撮像画像1102、および撮像画像1103から検出された特徴領域の関連性を算出する。本図の例では、重心位置1111、重心位置1112、および重心位置1113を結ぶ線の近傍には、より多くの重心位置が並ぶ。このような場合、関連性算出部358は、重心位置1111、重心位置1112、および重心位置1113に重心位置がある複数の特徴領域の間の関連性をより高く算出する。同様にして、関連性算出部358は、重心位置1121、重心位置1122、および重心位置1123に重心位置がある複数の特徴領域の間の関連性をより高く算出する。
The
このように、関連性算出部358により、複数の撮像画像における特徴領域の関連性を適切に算出することができる。このため、画像処理部360は、例えば人物と車両が交錯するような動画が送られてきた場合であっても、両者を速やかに区別することができる。場合によっては、画像処理部360は、画像認識をすることなく、両者を区別することができる。また、画像処理部360は、関連性が低い特徴領域を一目で区別することができるようなマーキング処理を撮像画像に施したりすることができる。
As described above, the
図12は、撮像画像1200における集合領域の一例を示す。本図において、特徴領域1210、特徴領域1220、および特徴領域1230は、画像選択部220により選択されなかった撮像画像および画像選択部220により選択された撮像画像のいずれかから、特徴領域検出部203によって検出された特徴領域を示す。なお、特徴領域1210の検出信頼度はp1であり、特徴領域1220の検出信頼度はp2であり、特徴領域1230の検出信頼度はp3であるとする。なお、検出信頼度は、その大きさが大きいほど信頼度が高いとする。
FIG. 12 shows an example of the collection area in the captured
重要度算出部240は、特徴領域1210、特徴領域1220、および特徴領域1230に異なる含まれ方で含まれる領域毎に、重要度を算出する。例えば、重要度算出部240は、特徴領域1210、特徴領域1220、および特徴領域1230の集合領域を、他の特徴領域に含まれない特徴領域1210内の第1領域と、他の特徴領域に含まれない特徴領域1220内の第2領域と、他の特徴領域に含まれない特徴領域1230内の第3領域と、特徴領域1210および特徴領域1220にだけ含まれる第4領域と、特徴領域1210および特徴領域1230にだけ含まれる第5領域と、特徴領域1220および特徴領域1230にだけ含まれる第6領域と、特徴領域1210、特徴領域1220、および特徴領域1230に含まれる第7領域に分ける。
The
そして、重要度算出部240は、上記7個の領域のそれぞれについて、重要度を算出する。具体的には、重要度算出部240は、上記7個の領域のそれぞれについて、それぞれの領域が含まれる特徴領域の検出信頼度を合計した合計値を算出する。重要度算出部240は、当該合計値が大きいほど、より大きい重要度を算出する。
Then, the
そして、対応付け処理部206は、予め定められた値より大きい重要度が算出された領域を示す情報を、画像選択部220によって選択された撮像画像1200に対応づけてよい。例えば、対応付け処理部206は、集合領域のうち、本図において斜線で示した第4領域、第6領域、および第7領域を示す情報を、当該選択された撮像画像1200に対応づけてよい。また、圧縮部230は、予め定められた値より大きい重要度が算出された領域を、図3または図6で説明した特徴領域として扱うことによって、当該領域の画質が他の領域より高い圧縮動画を生成してよい。
Then, the
このように、重要度算出部240が算出した重要度が予め定められた値より大きい領域を撮像画像に対応づけて出力するので、画像処理装置170において特徴領域を特定すべく画像認識をする対象領域をより狭めることができる。このため、画像処理装置170においてより高速に特徴領域を特定することができる。
As described above, since the region in which the importance calculated by the
図13は、他の実施形態に係る画像処理システム20の一例を示す。本実施形態における画像処理システム20の構成は、撮像装置100a−dがそれぞれ画像処理部804a−d(以下、画像処理部804と総称する。)を有する点を除いて、図1で説明した画像処理システム10の構成と同じとなっている。
FIG. 13 shows an example of an
画像処理部804は、それぞれ画像処理部200と同一の構成を有している。そして、画像処理部804に含まれる各構成要素の機能および動作は、画像処理部200に含まれる各構成要素が圧縮動画伸張部202による伸張処理によって得られた撮像動画を処理することに替えて、撮像部102によって撮像された撮像動画を処理するという点を除いて、画像処理部200に含まれる各構成要素の機能および動作と略同一であってよい。このような構成の画像処理システム20においても、図1から図13にかけて画像処理システム10に関連して説明した効果と略同一の効果が得ることができる。
Each of the image processing units 804 has the same configuration as that of the
図14は、画像処理装置120および画像処理装置170のハードウェア構成の一例を示す。画像処理装置120および画像処理装置170は、CPU周辺部と、入出力部と、レガシー入出力部とを備える。CPU周辺部は、ホスト・コントローラ1582により相互に接続されるCPU1505、RAM1520、グラフィック・コントローラ1575、及び表示デバイス1580を有する。入出力部は、入出力コントローラ1584によりホスト・コントローラ1582に接続される通信インターフェイス1530、ハードディスクドライブ1540、及びCD−ROMドライブ1560を有する。レガシー入出力部は、入出力コントローラ1584に接続されるROM1510、フレキシブルディスク・ドライブ1550、及び入出力チップ1570を有する。
FIG. 14 shows an example of the hardware configuration of the
ホスト・コントローラ1582は、RAM1520と、より高い転送レートでRAM1520をアクセスするCPU1505、及びグラフィック・コントローラ1575とを接続する。CPU1505は、ROM1510、及びRAM1520に格納されたプログラムの内容に応じて動作して、各部の制御をする。グラフィック・コントローラ1575は、CPU1505等がRAM1520内に設けたフレーム・バッファ上に生成する画像データを取得して、表示デバイス1580上に表示させる。これに代えて、グラフィック・コントローラ1575は、CPU1505等が生成する画像データを格納するフレーム・バッファを、内部に含んでもよい。
The
入出力コントローラ1584は、ホスト・コントローラ1582と、比較的高速な入出力装置であるハードディスクドライブ1540、通信インターフェイス1530、CD−ROMドライブ1560を接続する。ハードディスクドライブ1540は、CPU1505が使用するプログラム、及びデータを格納する。通信インターフェイス1530は、ネットワーク通信装置1598に接続してプログラムまたはデータを送受信する。CD−ROMドライブ1560は、CD−ROM1595からプログラムまたはデータを読み取り、RAM1520を介してハードディスクドライブ1540、及び通信インターフェイス1530に提供する。
The input /
入出力コントローラ1584には、ROM1510と、フレキシブルディスク・ドライブ1550、及び入出力チップ1570の比較的低速な入出力装置とが接続される。ROM1510は、画像処理装置120および画像処理装置170が起動するときに実行するブート・プログラム、あるいは画像処理装置120および画像処理装置170のハードウェアに依存するプログラム等を格納する。フレキシブルディスク・ドライブ1550は、フレキシブルディスク1590からプログラムまたはデータを読み取り、RAM1520を介してハードディスクドライブ1540、及び通信インターフェイス1530に提供する。入出力チップ1570は、フレキシブルディスク・ドライブ1550、あるいはパラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポート等を介して各種の入出力装置を接続する。
The input /
CPU1505が実行するプログラムは、フレキシブルディスク1590、CD−ROM1595、またはICカード等の記録媒体に格納されて利用者によって提供される。記録媒体に格納されたプログラムは圧縮されていても非圧縮であってもよい。プログラムは、記録媒体からハードディスクドライブ1540にインストールされ、RAM1520に読み出されてCPU1505により実行される。CPU1505により実行されるプログラムは、画像処理装置120を、図1から図13に関連して説明した画像処理装置120が有する各構成要素として機能させ、画像処理装置170を、図1から図14に関連して説明した、画像処理装置170が有する各構成要素として機能させる。
A program executed by the
以上に示したプログラムは、外部の記憶媒体に格納されてもよい。記憶媒体としては、フレキシブルディスク1590、CD−ROM1595の他に、DVDまたはPD等の光学記録媒体、MD等の光磁気記録媒体、テープ媒体、ICカード等の半導体メモリ等を用いることができる。また、専用通信ネットワークあるいはインターネットに接続されたサーバシステムに設けたハードディスクまたはRAM等の記憶装置を記録媒体として使用して、ネットワークを介したプログラムとして画像処理装置120および画像処理装置170に提供してもよい。このように、プログラムにより制御されるコンピュータが、画像処理装置120および画像処理装置170として機能する。
The program shown above may be stored in an external storage medium. As the storage medium, in addition to the
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.
10 画像処理システム
20 画像処理システム
100 撮像装置
102 撮像部
104 撮像動画圧縮部
110 通信ネットワーク
120 画像処理装置
130 人物
140 移動体
150 監視対象空間
160 空間
170 画像処理装置
175 画像DB
180 表示装置
200 画像処理部
201 圧縮動画取得部
202 圧縮動画伸張部
203 特徴領域検出部
206 対応付け処理部
207 出力部
210 圧縮制御部
220 画像選択部
230 圧縮部
232 画像分割部
234 固定値化部
236 圧縮処理部
240 重要度算出部
250 画像取得部
301 圧縮画像取得部
302 対応付け解析部
310 伸張制御部
320 伸張部
322 復号器
330 合成部
340 出力部
350 特徴領域処理部
352 特徴領域画像選択部
354 特徴領域特定部
356 信頼度算出部
358 関連性算出部
360 画像処理部
510 画質変換部
520 差分処理部
522 階層間差分処理部
530 符号化部
532 符号器
700 撮像画像
710 特徴領域
720 特徴領域
804 画像処理部
900 撮像画像
901 重心位置
902 重心位置
904 重心位置
905 重心位置
910 画像領域
1000 撮像画像
1000 撮像画像
1001 重心位置
1002 重心位置
1003 重心位置
1004 重心位置
1005 重心位置
1101 撮像画像
1102 撮像画像
1103 撮像画像
1111 重心位置
1112 重心位置
1121 重心位置
1122 重心位置
1113 重心位置
1123 重心位置
1200 撮像画像
1210 特徴領域
1220 特徴領域
1230 特徴領域
1505 CPU
1510 ROM
1520 RAM
1530 通信インターフェイス
1540 ハードディスクドライブ
1550 フレキシブルディスク・ドライブ
1560 CD−ROMドライブ
1570 入出力チップ
1575 グラフィック・コントローラ
1580 表示デバイス
1582 ホスト・コントローラ
1584 入出力コントローラ
1590 フレキシブルディスク
1595 CD−ROM
1598 ネットワーク通信装置
DESCRIPTION OF
180
1510 ROM
1520 RAM
1530
1598 Network communication device
Claims (19)
前記複数の撮像画像のそれぞれから特徴領域を検出する特徴領域検出部と、
前記複数の撮像画像の中から、一部の撮像画像を選択する画像選択部と、
前記複数の撮像画像から検出された複数の前記特徴領域を包含する領域を示す情報を、前記一部の撮像画像に対応づけて出力する出力部と
を備える画像処理システム。 An image acquisition unit that acquires a plurality of captured images captured at different timings;
A feature region detector that detects a feature region from each of the plurality of captured images;
An image selection unit for selecting a part of the captured images from the plurality of captured images;
An image processing system comprising: an output unit that outputs information indicating a region including a plurality of the feature regions detected from the plurality of captured images in association with the part of the captured images .
前記複数の撮像画像のそれぞれから特徴領域を検出する特徴領域検出部と、A feature region detector that detects a feature region from each of the plurality of captured images;
前記複数の撮像画像の中から、一部の撮像画像を選択する画像選択部と、An image selection unit for selecting a part of the captured images from the plurality of captured images;
前記複数の撮像画像のうち前記一部の撮像画像以外の撮像画像から検出された特徴領域を特定する情報を、前記一部の撮像画像に対応づけて出力する出力部とAn output unit that outputs information specifying a feature region detected from a captured image other than the partial captured image among the plurality of captured images in association with the partial captured image;
を備える画像処理システム。An image processing system comprising:
請求項1または2に記載の画像処理システム。 The output unit, an image processing system according to claim 1 or 2 the information indicating the set area of the plurality of detected plurality of feature regions from the captured image, and outputs in association with the portion of the captured image .
をさらに備え、
前記出力部は、前記重要度算出部が算出した重要度が予め定められた値より大きい画像領域を示す情報を、前記一部の撮像画像に対応づけて出力する
請求項3に記載の画像処理システム。 Based on the detection reliability of each of the plurality of feature regions detected by the feature region detection unit, the importance is determined for each of the plurality of image regions in the set region of the plurality of feature regions detected from the plurality of captured images. Further comprising an importance calculation unit for calculating,
The image processing according to claim 3, wherein the output unit outputs information indicating an image region whose importance calculated by the importance calculation unit is larger than a predetermined value in association with the part of the captured images. system.
請求項4に記載の画像処理システム。 The importance calculation unit calculates an addition value obtained by adding the detection reliability of the feature area including the image area for each of a plurality of image areas in the collection area, and based on the addition value, a plurality of importance values in the collection area are calculated. The image processing system according to claim 4, wherein the importance is calculated for each image region.
をさらに備え、
前記出力部は、前記集合領域を示す情報および前記重要度算出部が算出した重要度を前記一部の撮像画像に対応づけて出力する
請求項3に記載の画像処理システム。 Based on the detection reliability of each of the plurality of feature regions detected by the feature region detection unit, the importance is determined for each of the plurality of image regions in the set region of the plurality of feature regions detected from the plurality of captured images. Further comprising an importance calculation unit for calculating,
The image processing system according to claim 3, wherein the output unit outputs the information indicating the collection area and the importance calculated by the importance calculation unit in association with the part of the captured images.
請求項5に記載の画像処理システム。 The image processing system according to claim 5, wherein the feature region detection unit detects a region including an object indicating a moving object as the feature region.
請求項7に記載の画像処理システム。 The image processing system according to claim 7, wherein the image selection unit selects the partial captured image that satisfies a predetermined condition from the plurality of captured images.
請求項8に記載の画像処理システム。 The image processing system according to claim 8, wherein the image selection unit selects the part of the captured images in which the image content of the feature region detected by the feature region detection unit meets a predetermined condition.
をさらに備える請求項3に記載の画像処理システム。 4. The image processing apparatus according to claim 3, further comprising a feature region specifying unit that specifies a feature region from the partial captured image based on information indicating the collective region output in association with the partial captured image from the output unit. The image processing system described.
をさらに備える請求項3に記載の画像処理システム。 The compression unit according to claim 3, further comprising: a compression unit that compresses the image of the collective region in the part of the captured images and the image of the background region other than the collective region in the captured image at different compression rates. Image processing system.
前記一部の撮像画像を、前記集合領域と、前記集合領域以外の背景領域とに分割する画像分割部と、
前記集合領域の画像である特徴領域画像と前記背景領域の画像である背景領域画像とを、それぞれ異なる強度で圧縮する圧縮処理部と
を有する請求項11に記載の画像処理システム。 The compression unit is
An image dividing unit that divides the part of the captured image into the collective region and a background region other than the collective region;
The image processing system according to claim 11, further comprising: a compression processing unit that compresses the feature region image that is the image of the collective region and the background region image that is the image of the background region with different intensities.
前記圧縮処理部は、前記特徴領域画像を複数含む特徴領域動画と前記背景領域画像を複数含む背景領域動画とを、それぞれ異なる強度で圧縮する
請求項12に記載の画像処理システム。 The image dividing unit divides each of the plurality of captured images included in the moving image as moving image constituent images into the collective region and the background region,
The image processing system according to claim 12, wherein the compression processing unit compresses a feature area moving image including a plurality of the characteristic area images and a background area moving image including a plurality of the background area images with different strengths.
動画に動画構成画像として含まれる複数の前記一部の撮像画像のそれぞれから、画質を低画質にした低画質画像、および少なくとも前記特徴領域において前記低画質画像より高画質な特徴領域画像を生成する画像生成部と、
前記特徴領域画像における前記特徴領域の画像と、前記低画質画像における前記特徴領域の画像との間の差分画像を示す特徴領域差分画像を生成する差分処理部と、
前記特徴領域差分画像および前記低画質画像をそれぞれ符号化する符号化部と
を有する請求項11に記載の画像処理システム。 The compression unit is
A low-quality image having a low image quality and a feature area image having a higher image quality than the low-quality image in at least the feature area are generated from each of the plurality of captured images included in the moving image as a moving image constituent image. An image generator;
A difference processing unit that generates a feature area difference image indicating a difference image between the image of the feature area in the feature area image and the image of the feature area in the low-quality image;
The image processing system according to claim 11, further comprising: an encoding unit that encodes the feature area difference image and the low-quality image.
前記差分処理部は、前記特徴領域画像における前記特徴領域の画像と、前記低画質画像における前記特徴領域の画像を拡大した画像との間の前記特徴領域差分画像を生成する
請求項14に記載の画像処理システム。 The image generation unit generates the low-quality image with reduced resolution from a plurality of the captured images included in the moving image as a moving image constituent image,
The difference processing unit generates the feature region difference image between an image of the feature region in the feature region image and an image obtained by enlarging the image of the feature region in the low-quality image. Image processing system.
請求項15に記載の画像処理システム。 The difference processing unit has a spatial frequency component in which a difference between the feature region image and the enlarged image is converted into a spatial frequency region in the feature region, and the spatial frequency component of the region other than the feature region The image processing system according to claim 15, wherein the feature area difference image with a reduced data amount is generated.
前記複数の撮像画像のそれぞれから特徴領域を検出する特徴領域検出段階と、
前記複数の撮像画像の中から、一部の撮像画像を選択する画像選択段階と、
前記複数の撮像画像から検出された複数の前記特徴領域を包含する領域を示す情報を、前記一部の撮像画像に対応づけて出力する出力段階と
を備える画像処理方法。 An image acquisition stage for acquiring a plurality of captured images captured at different timings;
A feature region detection step of detecting a feature region from each of the plurality of captured images;
An image selection step of selecting a part of the captured images from the plurality of captured images;
An image processing method comprising: an output step of outputting information indicating a region including the plurality of feature regions detected from the plurality of captured images in association with the part of the captured images.
前記複数の撮像画像のそれぞれから特徴領域を検出する特徴領域検出段階と、A feature region detection step of detecting a feature region from each of the plurality of captured images;
前記複数の撮像画像の中から、一部の撮像画像を選択する画像選択段階と、An image selection step of selecting a part of the captured images from the plurality of captured images;
前記複数の撮像画像のうち前記一部の撮像画像以外の撮像画像から検出された特徴領域を特定する情報を、前記一部の撮像画像に対応づけて出力する出力段階とAn output stage for outputting information specifying a feature region detected from a captured image other than the partial captured image among the plurality of captured images in association with the partial captured image;
を備える画像処理方法。An image processing method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008093321A JP4905723B2 (en) | 2008-03-31 | 2008-03-31 | Image processing system, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008093321A JP4905723B2 (en) | 2008-03-31 | 2008-03-31 | Image processing system, image processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009246837A JP2009246837A (en) | 2009-10-22 |
JP4905723B2 true JP4905723B2 (en) | 2012-03-28 |
Family
ID=41308246
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008093321A Expired - Fee Related JP4905723B2 (en) | 2008-03-31 | 2008-03-31 | Image processing system, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4905723B2 (en) |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07288789A (en) * | 1994-04-15 | 1995-10-31 | Hitachi Ltd | Intelligent encoding device and image communication device |
JP4685465B2 (en) * | 2005-02-01 | 2011-05-18 | パナソニック株式会社 | Monitoring and recording device |
-
2008
- 2008-03-31 JP JP2008093321A patent/JP4905723B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2009246837A (en) | 2009-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4895042B2 (en) | Image compression apparatus, image compression method, and program | |
JP6263830B2 (en) | Techniques for including multiple regions of interest indicators in compressed video data | |
US8462226B2 (en) | Image processing system | |
JP5181294B2 (en) | Imaging system, imaging method, and program | |
JP4897600B2 (en) | Image processing apparatus, image processing method, and program | |
US8503810B2 (en) | Image compression using partial region determination | |
US20110019741A1 (en) | Image processing system | |
JP5082134B2 (en) | Image processing apparatus, image processing method, and program | |
JP5337970B2 (en) | Image processing system, image processing method, and program | |
JP5156982B2 (en) | Image processing system, image processing method, and program | |
JP2012085350A (en) | Image processing apparatus, image processing method, and program | |
JP5117424B2 (en) | Image processing system, image processing method, and program | |
JP2009273116A (en) | Image processing device, image processing method, and program | |
JP4905723B2 (en) | Image processing system, image processing method, and program | |
JP5034116B2 (en) | Image processing system, image processing method, and program | |
JP4895041B2 (en) | Image processing apparatus, image processing method, and program | |
JP5136172B2 (en) | Image processing system, image processing method, and program | |
JP4817262B2 (en) | Image processing apparatus, image processing method, and program | |
JP4961582B2 (en) | Image processing system, image processing method, and program | |
JP2009253581A (en) | Image processing apparatus, image processing method, and program | |
JP5082141B2 (en) | Image processing system, image processing method, and program | |
JP4873488B2 (en) | Image processing apparatus, image processing method, and program | |
JP5105179B2 (en) | Image processing system, image processing method, and program | |
JP5082142B2 (en) | Image processing apparatus, image processing system, image processing method, and program | |
JP5337969B2 (en) | Image processing system, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100617 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110830 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111004 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111121 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111213 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111227 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150120 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4905723 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |