[go: up one dir, main page]

JP5308322B2 - Image encoding apparatus, image decoding apparatus, and program - Google Patents

Image encoding apparatus, image decoding apparatus, and program Download PDF

Info

Publication number
JP5308322B2
JP5308322B2 JP2009285609A JP2009285609A JP5308322B2 JP 5308322 B2 JP5308322 B2 JP 5308322B2 JP 2009285609 A JP2009285609 A JP 2009285609A JP 2009285609 A JP2009285609 A JP 2009285609A JP 5308322 B2 JP5308322 B2 JP 5308322B2
Authority
JP
Japan
Prior art keywords
image
generated
encoding
reduced
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009285609A
Other languages
Japanese (ja)
Other versions
JP2011130114A (en
Inventor
俊枝 三須
善明 鹿喰
慎一 境田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2009285609A priority Critical patent/JP5308322B2/en
Publication of JP2011130114A publication Critical patent/JP2011130114A/en
Application granted granted Critical
Publication of JP5308322B2 publication Critical patent/JP5308322B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To efficiently improve the resolution of an image including a subject by using a reinforcement signal. <P>SOLUTION: An object detection means 2 of an image encoder 100 detects an object from a reduced image L of an image H to generate object area information D. An image encoding means 1 generates a reinforcement signal E for improving the resolution of an area indicated by the object area information D and encodes the reduced image L and the reinforcement signal E. An object detection means 4 of an image decoder 200 detects a prescribed object from the reduced image L to generate object area information D. An image decoding means 3 decodes a code string inputted from the image encoder 100 to generate the reduced image L and the reinforcement signal E and generates a sharpened image H from the reinforcement signal E disposed in an area indicated by the object area information D and the reduced image L. Thus, the data amount of the code string is small to allow the enhancement in efficiency of encoding because it is unnecessary to generate a code string of the object area information D. <P>COPYRIGHT: (C)2011,JPO&amp;INPIT

Description

本発明は、画像符号化装置、画像復号装置、画像符号化プログラム及び画像復号プログラムに関し、特に、補強信号を用いて画像の高精細化を実現する技術に関する。   The present invention relates to an image encoding device, an image decoding device, an image encoding program, and an image decoding program, and more particularly to a technique for realizing high definition of an image using a reinforcement signal.

従来、画像の高精細化を実現するための方式として、第2世代EDTV(Enhanced Definition Television)方式、階層符号化方式、オブジェクト符号化方式等が知られている。第2世代EDTV方式は、補強信号を用いた符号化及び変調方式であり、NTSC信号のスペクトルにおける吹抜ホールに水平解像度補強信号を重畳し、アスペクト比16:9の被伝送画像をアスペクト比4:3フォーマットのレターボックスにて送信するときに、画面の上下に生じる無画部を利用し、垂直解像度補強信号及び垂直時間解像度補強信号を伝送するものである。   Conventionally, a second generation EDTV (Enhanced Definition Television) system, a hierarchical coding system, an object coding system, and the like are known as a system for realizing high definition of an image. The second generation EDTV system is an encoding and modulation system that uses a reinforcement signal. A horizontal resolution reinforcement signal is superimposed on an open hole in the spectrum of an NTSC signal, and a transmitted image having an aspect ratio of 16: 9 is aspect ratio 4 :. When transmitting in a 3-format letterbox, the vertical resolution reinforcement signal and the vertical time resolution reinforcement signal are transmitted using the non-image portions generated at the top and bottom of the screen.

また、階層符号化方式は、画像を複数の階層(主に、異なる解像度の画像)に分割し、階層毎に符号化方式を選定して符号化を行うものである(例えば、特許文献1,2を参照)。また、オブジェクト符号化方式は、画像を、被写体等を含む部分画像の領域に分割し、領域毎に手法及びパラメータを適応させて符号化を行うものである(例えば、非特許文献1を参照)。   The hierarchical encoding method divides an image into a plurality of layers (mainly images having different resolutions), selects an encoding method for each layer, and performs encoding (for example, Patent Document 1, Patent Document 1). 2). The object encoding method divides an image into regions of partial images including a subject and the like, and performs encoding by applying a method and parameters for each region (for example, see Non-Patent Document 1). .

特開昭63−73786号公報JP-A-63-73786 特開2000−41149号公報JP 2000-41149 A

“Information Technology−Coding of audio−visual objects−,Part2:Visual,Amendment1:Visual extensions,”ISO/IEC14496−2“Information Technology-Coding of audio-visual objects-, Part 2: Visual, Amenity 1: Visual extensions,” ISO / IEC 14496-2

しかしながら、前述の第2世代EDTV方式では、画像全体に対して適用する水平、垂直等の補強信号を伝送するから、局所的な被写体を含む部分画像のみに適用することができない。このため、補強信号は、局所的な被写体を含む部分画像だけでなく、それ以外の画像にまで割り当てられてしまう。つまり、補強信号は、高精細化を要する局所的な被写体を含む領域だけでなく、高精細化を要しない領域にも割り当てられるから、情報伝達の効率性が損なわれてしまうという問題があった。   However, in the above-mentioned second generation EDTV system, a reinforcement signal such as horizontal and vertical applied to the entire image is transmitted, so it cannot be applied only to a partial image including a local subject. For this reason, the reinforcement signal is assigned not only to a partial image including a local subject but also to other images. In other words, since the reinforcement signal is assigned not only to a region including a local subject that requires high definition but also to a region that does not require high definition, the efficiency of information transmission is impaired. .

また、前述の特許文献1の階層符号化方式では、画像を、再生画質への影響が大きい部分と、影響が小さい部分とに分割(階層化)する。しかしながら、この階層化は、被写体とは直接無関係な信号的性質に応じて行われる。このため、階層化は、所定の重要な被写体を含む部分画像の有無にかかわらず行われるから、必ずしもユーザにより注目される領域が高精細化されるとは限らないという問題があった。   Further, in the above-described hierarchical encoding method disclosed in Patent Document 1, an image is divided (hierarchized) into a portion having a large influence on reproduction image quality and a portion having a small influence. However, this hierarchization is performed according to signal characteristics that are not directly related to the subject. For this reason, since the hierarchization is performed regardless of the presence or absence of a partial image including a predetermined important subject, there is a problem in that the region that is noticed by the user is not necessarily highly refined.

また、前述の特許文献2の階層符号化方式では、画像を分割し、ユーザにより注目される領域のみの補強信号を差分情報として伝送することにより、情報伝達の効率性を実現することができる。しかしながら、ユーザにより注目される領域の要求操作を画像復号装置から画像符号化装置へフィードバックする必要があり、双方向の通信が必要になる。このため、この方式は、放送等の単方向の通信路に適用することができないという問題があった。仮に、要求操作をフィードバックしない場合には、画像復号装置は、画像符号化装置から受信した差分情報が、全体画像におけるどこの領域の画像であるかを認識することができないから、画像符号化装置は、全体画像及び差分情報の符号列に加えて、領域に関する情報の符号列も画像復号装置へ送信する必要がある。このため、符号量が増加し、符号化の効率化を図ることができず、ユーザにより注目される領域について、その画像を効率的に高精細化することができないという問題があった。   Further, in the above-described hierarchical coding method of Patent Document 2, it is possible to realize the efficiency of information transmission by dividing an image and transmitting a reinforcement signal of only a region noted by a user as difference information. However, it is necessary to feed back a request operation for a region that is noticed by the user from the image decoding apparatus to the image encoding apparatus, and bidirectional communication is required. For this reason, this method has a problem that it cannot be applied to a unidirectional communication channel such as broadcasting. If the request operation is not fed back, the image decoding apparatus cannot recognize where the difference information received from the image encoding apparatus is an image of which area in the entire image. In addition to the entire image and the code string of the difference information, it is necessary to transmit the code string of the information related to the region to the image decoding apparatus. For this reason, there is a problem in that the amount of codes increases, the efficiency of encoding cannot be achieved, and the image of the area that is noticed by the user cannot be efficiently refined.

そこで、本発明は以上の課題を鑑みてなされたものであり、その目的は、補強信号を用いて、オブジェクトである被写体を含む画像の分解能を、効率的に向上させることが可能な画像符号化装置、画像復号装置及びプログラムを提供することにある。   Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to perform image coding that can efficiently improve the resolution of an image including a subject that is an object using a reinforcement signal. An apparatus, an image decoding device, and a program are provided.

上記目的を達成するために、請求項1の発明は、画像を入力し、前記画像を低分解能化し、前記低分解能化した画像を符号化して符号列を出力する画像符号化装置において、前記低分解能化された画像内に含まれる所定のオブジェクトを検出するオブジェクト検出手段と、前記入力された画像を低分解能化して第1の符号列に符号化し、前記オブジェクト検出手段により検出されたオブジェクトを含む画像に基づいて、画像を高分解能化するための補強信号を生成し、前記補強信号を第2の符号列に符号化し、前記第1の符号列と前記第2の符号列とを出力する画像符号化手段と、を備え、前記オブジェクト検出手段が、前記低分解能化された画像内に含まれる所定のオブジェクトを検出し、前記画像における前記オブジェクトを含む空間領域をオブジェクト領域情報として生成し、前記画像符号化手段が、前記入力された画像から画素を間引いて、低分解能化した縮小画像を生成し、前記縮小画像を、前記所定のオブジェクトを検出するためのオブジェクト検出用画像として前記オブジェクト検出手段に出力する画像縮小手段と、前記画像縮小手段により生成された縮小画像を符号化し、符号列を生成する縮小画像符号化手段と、前記画像縮小手段により生成された縮小画像に画素を挿入し、拡大画像を生成する画像拡大手段と、前記画像拡大手段により生成された拡大画像から、前記オブジェクト検出手段により生成されたオブジェクト領域情報の示す空間領域の画像を切り出す第1の画像切り出し手段と、前記入力された画像から、前記オブジェクト検出手段により生成されたオブジェクト領域情報の示す空間領域の画像を切り出す第2の画像切り出し手段と、前記第1の画像切り出し手段により切り出された画像と、前記第2の画像切り出し手段により切り出された画像との間の差分を演算し、補強信号を生成する差分演算手段と、前記差分演算手段により生成された補強信号を符号化し、符号列を生成する補強信号符号化手段とを備え、前記縮小画像符号化手段により生成された符号列と、前記補強信号符号化手段により生成された符号列とを出力するとともに、前記画像符号化手段が、さらに、前記縮小画像符号化手段により生成された符号列を復号し、局所復号画像を生成し、前記局所復号画像を、前記所定のオブジェクトを検出するためのオブジェクト検出用画像として前記オブジェクト検出手段に出力する局所画像復号手段を備え、前記画像拡大手段が、前記局所画像復号手段により生成された局所復号画像を拡大して拡大画像を生成し、前記オブジェクト検出手段が、前記局所画像復号手段により出力されたオブジェクト検出用画像に基づいて所定のオブジェクトを検出し、オブジェクト領域情報を生成することを特徴とする。 In order to achieve the above object, an invention according to claim 1 is directed to an image encoding device that inputs an image, reduces the resolution of the image, encodes the reduced-resolution image, and outputs a code string. An object detection means for detecting a predetermined object included in the resolution-reduced image, and an object detected by the object detection means by lowering the resolution of the input image and encoding it into a first code string An image that generates a reinforcement signal for increasing the resolution of the image based on the image, encodes the reinforcement signal into a second code string, and outputs the first code string and the second code string comprising a coding means, wherein the object detecting means, wherein detecting a predetermined object contained in the low resolution has been the image, space territory including the object in the image Is generated as object region information, and the image encoding means generates a reduced image with reduced resolution by thinning out pixels from the input image, and detects the predetermined object with the reduced image. Image reduction means for outputting to the object detection means as an object detection image, reduced image encoding means for encoding a reduced image generated by the image reduction means and generating a code string, and generated by the image reduction means An image enlargement unit that inserts pixels into the reduced image and generates an enlarged image, and an image of a spatial region indicated by the object region information generated by the object detection unit is cut out from the enlarged image generated by the image enlargement unit Generated by the object detection means from the first image cutout means and the input image. Difference between the second image cutout unit that cuts out the image of the spatial area indicated by the object region information, the image cut out by the first image cutout unit, and the image cut out by the second image cutout unit Are generated by the reduced image encoding means, and a difference calculation means for generating a reinforcement signal and a reinforcement signal encoding means for encoding the reinforcement signal generated by the difference calculation means and generating a code string. The encoded code sequence and the code sequence generated by the reinforcement signal encoding unit, and the image encoding unit further decodes the code sequence generated by the reduced image encoding unit, A decoded image is generated, and the local decoded image is output to the object detection means as an object detection image for detecting the predetermined object. Local image decoding means, wherein the image enlarging means enlarges the local decoded image generated by the local image decoding means to generate an enlarged image, and the object detection means is output by the local image decoding means. A predetermined object is detected based on the object detection image, and object area information is generated .

請求項1の発明によれば、低分解能の画像と、画像を高分解能化するための補強信号との符号列が出力され、所定のオブジェクトを含む領域に関する符号列は出力されない。また、補強信号は、オブジェクトを含む画像に基づいて生成されるから、オブジェクトを含まない画像は補強信号に反映されない。したがって、符号列のデータ量は少なくて済み、符号化処理の負担を軽減することができる。また、復号側は、画像符号化装置により出力された符号列における縮小画像を用いて、画像符号化装置に備えたオブジェクト検出手段と同一の処理により、同一のオブジェクト領域情報を生成することができ、画像符号化装置により出力された符号列における補強信号を用いて、オブジェクト領域情報の示す空間領域の画像を高分解能化することができる。したがって、画像符号化装置は、オブジェクト領域情報の符号列を復号側へ出力する必要がなく、また、補強信号は、オブジェクトを含む画像に基づいて生成されるから、オブジェクトを含まない画像は補強信号に反映されない。また、補強信号は、画像の差分を演算して生成される。つまり、符号列のデータ量は少なくて済み、符号化処理の負担を軽減することができる。また、画像符号化装置は、画像内に空間的に偏在するオブジェクトである被写体について、補強信号を生成するから、復号側は、その補強信号を用いることにより、オブジェクト領域情報の示す空間領域の画像を高分解能化し、その被写体の滑らかな輪郭及び詳細なテクスチャを再現することができる。さらに、復号側が符号列を復号して得る縮小画像は、画像符号化装置における縮小画像よりも局所復号画像に近いから、復号側は、符号列を復号して得た縮小画像を用いて、画像符号化装置に備えたオブジェクト検出手段と同一の処理を行うことにより、画像符号化装置のオブジェクト検出手段により生成されるオブジェクト領域情報と同一のオブジェクト領域情報を生成することができる。したがって、縮小画像符号化手段が非可逆の符号化方式を用いた場合であっても、画像符号化装置と復号側との間でオブジェクト検出結果にほとんど差異がないから、符号化による画質劣化が生じたとしても、オブジェクト検出への影響はなく、破綻が起こることがない。また、補強信号は、局所復号画像を用いて生成された拡大画像により生成されるから、縮小画像符号化手段が非可逆の符号化方式を用いた場合であっても、符号化による画質劣化の歪みを考慮した信号となる。復号側は、このような補強信号を用いることにより、符号化による画質劣化の歪みを考慮した画像の高分解能化を実現することができる。 According to the first aspect of the present invention, the code string of the low resolution image and the reinforcement signal for increasing the resolution of the image is output, and the code string related to the region including the predetermined object is not output. Further, since the reinforcement signal is generated based on the image including the object, the image not including the object is not reflected in the reinforcement signal. Therefore, the data amount of the code string is small, and the burden of the encoding process can be reduced. Further, the decoding side can generate the same object region information by the same processing as the object detection means provided in the image encoding device, using the reduced image in the code string output by the image encoding device. By using the reinforcement signal in the code string output by the image encoding device, it is possible to increase the resolution of the image in the spatial area indicated by the object area information. Therefore, the image encoding device does not need to output the code sequence of the object area information to the decoding side, and the reinforcement signal is generated based on the image including the object. It is not reflected in. The reinforcement signal is generated by calculating the difference between the images. That is, the data amount of the code string is small, and the burden of the encoding process can be reduced. Further, since the image encoding device generates a reinforcement signal for a subject that is an object that is spatially uneven in the image, the decoding side uses the reinforcement signal to generate an image of the spatial region indicated by the object region information. Can be reproduced with high resolution, and a smooth contour and detailed texture of the subject can be reproduced. Further, since the reduced image obtained by decoding the code sequence on the decoding side is closer to the local decoded image than the reduced image in the image encoding device, the decoding side uses the reduced image obtained by decoding the code sequence to generate an image. By performing the same processing as the object detection means provided in the encoding apparatus, the same object area information as the object area information generated by the object detection means of the image encoding apparatus can be generated. Therefore, even when the reduced image encoding means uses an irreversible encoding method, there is almost no difference in the object detection result between the image encoding device and the decoding side, so that the image quality deterioration due to encoding is not caused. Even if it occurs, there is no effect on object detection and no failure occurs. In addition, since the reinforcement signal is generated by the enlarged image generated using the local decoded image, even when the reduced image encoding means uses an irreversible encoding method, image quality degradation due to encoding is reduced. The signal takes distortion into consideration. By using such a reinforcement signal, the decoding side can realize high resolution of an image in consideration of distortion of image quality degradation due to encoding.

また、請求項の発明は、画像を入力し、前記画像を低分解能化し、前記低分解能化した画像を符号化して符号列を出力する画像符号化装置であって、前記低分解能化された画像内に含まれる所定のオブジェクトを検出するオブジェクト検出手段と、前記入力された画像を低分解能化して第1の符号列に符号化し、前記オブジェクト検出手段により検出されたオブジェクトを含む画像に基づいて、画像を高分解能化するための補強信号を生成し、前記補強信号を第2の符号列に符号化し、前記第1の符号列と前記第2の符号列とを出力する画像符号化手段と、を備え、前記オブジェクト検出手段が、 前記低分解能化された画像内に含まれる所定のオブジェクトを検出し、前記画像における前記オブジェクトを含む空間領域をオブジェクト領域情報として生成し、前記画像符号化手段が、 前記入力された画像から画素を間引いて、低分解能化した縮小画像を生成し、前記縮小画像を、前記所定のオブジェクトを検出するためのオブジェクト検出用画像として前記オブジェクト検出手段に出力する画像縮小手段と、前記画像縮小手段により生成された縮小画像を符号化し、符号列を生成する縮小画像符号化手段と、前記画像縮小手段により生成された縮小画像に画素を挿入し、拡大画像を生成する画像拡大手段と、前記画像拡大手段により生成された拡大画像から、前記オブジェクト検出手段により生成されたオブジェクト領域情報の示す空間領域の画像を切り出す第1の画像切り出し手段と、前記入力された画像から、前記オブジェクト検出手段により生成されたオブジェクト領域情報の示す空間領域の画像を切り出す第2の画像切り出し手段と、前記第1の画像切り出し手段により切り出された画像と、前記第2の画像切り出し手段により切り出された画像との間の差分を演算し、補強信号を生成する差分演算手段と、前記差分演算手段により生成された補強信号を符号化し、符号列を生成する補強信号符号化手段と、を備え、前記縮小画像符号化手段により生成された符号列と、前記補強信号符号化手段により生成された符号列とを出力する画像符号化装置から、低分解能の画像の符号列、及び高分解能の画像を得るための補強信号の符号列を入力し、前記符号列を復号して画像を出力する画像復号装置において、前記符号列を復号して生成された低分解能の画像を用いて、前記低分解能の画像内に含まれる所定のオブジェクトを検出するオブジェクト検出手段と、前記入力した符号列を復号し、低分解能の画像及び補強信号を生成し、前記オブジェクトが検出された領域に前記補強信号を配置して補強画像を生成し、前記低分解能の画像と補強画像とを加算し、加算結果の画像を出力する画像復号手段とを備えたことを特徴とする。 According to a second aspect of the present invention, there is provided an image encoding apparatus for inputting an image, reducing the resolution of the image, encoding the reduced-resolution image, and outputting a code string, wherein the resolution is reduced. Based on an object detection unit that detects a predetermined object included in the image, the input image is reduced in resolution and encoded into a first code string, and the image includes the object detected by the object detection unit Image encoding means for generating a reinforcement signal for increasing the resolution of an image, encoding the reinforcement signal into a second code string, and outputting the first code string and the second code string; The object detection means detects a predetermined object included in the low-resolution image, and a space area including the object in the image is defined as an object area. Generated as information, and the image encoding means thins out pixels from the input image to generate a reduced image with reduced resolution, and the reduced image is used for object detection to detect the predetermined object. Image reduction means for outputting to the object detection means as an image, reduced image encoding means for encoding a reduced image generated by the image reduction means and generating a code string, and reduced image generated by the image reduction means An image enlarging unit that inserts a pixel into the image and generating an enlarged image; and a first image that cuts out an image of a spatial area indicated by the object area information generated by the object detecting unit from the enlarged image generated by the image enlarging unit An object segment information generated by the object detection means from the image cutout means and the input image. The difference between the second image cutout unit that cuts out the image of the spatial region indicated by the report, the image cut out by the first image cutout unit, and the image cut out by the second image cutout unit is calculated. And a difference calculation means for generating a reinforcement signal and a reinforcement signal encoding means for encoding the reinforcement signal generated by the difference calculation means and generating a code string, and generated by the reduced image encoding means. From the image encoding device that outputs the code sequence generated and the code sequence generated by the reinforcement signal encoding means, a code sequence of a low resolution image and a code sequence of a reinforcement signal for obtaining a high resolution image are obtained. In an image decoding device that inputs and decodes the code string and outputs an image, a low-resolution image generated by decoding the code string is used to generate a predetermined object included in the low-resolution image. Object detection means for detecting an object, and decoding the input code string, generating a low-resolution image and a reinforcement signal, arranging the reinforcement signal in a region where the object is detected, and generating a reinforcement image, Image decoding means for adding the low-resolution image and the reinforcement image and outputting the addition result image is provided.

請求項の発明によれば、低分解能の画像、及び、高分解能の画像を得るための補強信号の符号列を入力し、低分解能の画像からオブジェクトを検出し、オブジェクトを検出した領域に補強信号を配置して補強画像を生成するようにしたから、これらの画像を加算することにより、鮮鋭化画像を生成することができる。これにより、オブジェクトを含む領域に関する符号列を入力する必要がなく、符号列のデータ量は少なくて済む。 According to the invention of claim 2 , a low-resolution image and a code string of a reinforcement signal for obtaining a high-resolution image are input, an object is detected from the low-resolution image, and the object is reinforced in the detected region. Since the reinforcement image is generated by arranging the signals, a sharpened image can be generated by adding these images. As a result, there is no need to input a code string related to the area including the object, and the data amount of the code string can be reduced.

また、請求項の発明は、請求項に記載の画像復号装置において、前記画像符号化装置から、前記符号列を入力し、前記オブジェクト検出手段が、前記低分解能の画像内に含まれる所定のオブジェクトを検出し、前記画像における前記オブジェクトを含む空間領域をオブジェクト領域情報として生成し、前記画像復号手段が、前記低分解能の画像の符号列を復号し、縮小画像を生成する縮小画像復号手段と、前記補強信号の符号列を復号し、補強信号を生成する補強信号復号手段と、前記縮小画像復号手段により生成された縮小画像に画素を挿入し、拡大画像を生成する画像拡大手段と、前記オブジェクト検出手段により生成されたオブジェクト領域情報の示す空間領域に、前記補強信号復号手段により生成された補強信号を配置し、補強画像を生成する配置手段と、前記画像拡大手段により生成された拡大画像と、前記配置手段により生成された補強画像とを加算し、加算後の画像を出力する加算手段とを備えたことを特徴とする。 The predetermined invention of claim 3, the image decoding apparatus according to claim 2, from the image encoding device, enter the code sequence, said object detecting means is included in said low-resolution image Reduced image decoding means for detecting the object of the image, generating a spatial area including the object in the image as object area information, and wherein the image decoding means decodes the code string of the low resolution image and generates a reduced image A reinforcement signal decoding unit that decodes the code string of the reinforcement signal and generates a reinforcement signal; an image enlargement unit that inserts a pixel into the reduced image generated by the reduced image decoding unit and generates an enlarged image; The reinforcement signal generated by the reinforcement signal decoding means is arranged in the space area indicated by the object area information generated by the object detection means, and reinforcement is performed. An arrangement means for generating an image, an addition means for adding the enlarged image generated by the image enlargement means and the reinforcing image generated by the arrangement means, and outputting an image after addition is provided. And

請求項の発明によれば、縮小画像から、空間的に局在するオブジェクトの空間領域を示すオブジェクト領域情報を生成し、そのオブジェクト領域情報の示す空間領域に補強信号を配置して補強画像を生成するようにしたから、縮小画像と補強画像とを加算することにより、鮮鋭化画像を生成することができる。これにより、オブジェクトである被写体の滑らかな輪郭及び詳細なテクスチャを再現することができる。また、オブジェクト領域情報の符号列を入力する必要がなく、符号列のデータ量は少なくて済む。 According to the invention of claim 3 , object region information indicating a spatial region of a spatially localized object is generated from the reduced image, and a reinforcement signal is arranged in the spatial region indicated by the object region information to generate a reinforcement image. Since the image is generated, a sharpened image can be generated by adding the reduced image and the reinforcing image. As a result, it is possible to reproduce the smooth outline and detailed texture of the subject that is the object. Further, it is not necessary to input a code string of the object area information, and the data amount of the code string can be small.

また、請求項の発明は、請求項に記載の画像復号装置において、前記配置手段及び加算手段の代わりに、配置加算手段を備え、前記配置加算手段が、前記画像拡大手段により生成された拡大画像における、前記オブジェクト検出手段により生成されたオブジェクト領域情報の示す空間領域の画像に、前記補強信号復号手段により生成された補強信号を加算し、加算後の拡大画像を出力することを特徴とする。 According to a fourth aspect of the present invention, in the image decoding device according to the third aspect , in place of the arrangement unit and the addition unit, an arrangement addition unit is provided, and the arrangement addition unit is generated by the image enlargement unit. Adding the reinforcement signal generated by the reinforcement signal decoding means to the image of the spatial area indicated by the object area information generated by the object detection means in the enlarged image, and outputting the enlarged image after the addition; To do.

請求項の発明によれば、補強画像が生成されることなく、補強信号が拡大画像に直接加算され、鮮鋭化画像が生成されるから、復号処理の負担を軽減することができる。 According to the fourth aspect of the present invention, since the reinforcement signal is directly added to the enlarged image without generating the reinforcement image, and the sharpened image is generated, the burden of the decoding process can be reduced.

また、請求項の発明は、請求項に記載の画像復号装置において、前記オブジェクト検出手段が、前記オブジェクトをそれぞれ含むF個(Fは0以上の整数)の領域Di(i=0,・・・,F−1)をオブジェクト領域情報として生成し、前記補強信号復号手段が、前記補強信号の符号列を復号し、F個の補強信号Eiを生成し、前記配置手段が、前記オブジェクト検出手段により生成されたオブジェクト領域情報の示すF個の領域Diに、前記補強信号復号手段により生成されたF個の補強信号Eiを配置し、補強画像を生成することを特徴とする。 Further, the invention of claim 5 is the image decoding device according to claim 3 , wherein the object detection means includes F (F is an integer of 0 or more) regions Di (i = 0,...) Each including the object. .., F-1) are generated as object area information, and the reinforcement signal decoding means decodes the code string of the reinforcement signal to generate F reinforcement signals Ei, and the arrangement means detects the object detection The F reinforcement signals Ei generated by the reinforcement signal decoding means are arranged in F areas Di indicated by the object area information generated by the means, and a reinforcement image is generated.

請求項の発明によれば、オブジェクト領域情報Di及び補強信号Eiは、画像内に含まれるオブジェクトの数に応じて生成されるから、画像内にオブジェクトが散在する場合であっても、適切な復号処理が行われる。 According to the invention of claim 5 , since the object region information Di and the reinforcement signal Ei are generated according to the number of objects included in the image, even if the objects are scattered in the image Decryption processing is performed.

また、請求項の発明は、請求項に記載の画像復号装置において、さらに、前記縮小画像復号手段により生成された縮小画像を画面表示する表示手段を備え、前記表示手段が、ユーザの操作に従って、前記加算手段により出力された加算後の画像から、前記オブジェクト検出手段により生成されたオブジェクト領域情報の示す領域の画像を切り出し、画面表示する、ことを特徴とする。 The invention of claim 6 is the image decoding apparatus according to claim 3 , further comprising display means for displaying a reduced image generated by the reduced image decoding means, the display means being operated by a user. The image of the area indicated by the object area information generated by the object detection means is cut out from the added image output by the addition means and displayed on the screen.

請求項の発明によれば、ユーザの操作に従って、画面表示された縮小画像のうち、オブジェクトを含む高分解能な見易い部分画像をユーザへ提示することができる。 According to invention of Claim 6 , according to a user's operation, among the reduced images displayed on the screen, a high-resolution, easy-to-see partial image including an object can be presented to the user.

また、請求項の発明は、コンピュータを、請求項に記載の画像符号化装置として機能させるための画像符号化プログラムにある。 The invention of claim 7 is a computer, the image encoding program for functioning as an image encoding apparatus according to claim 1.

また、請求項の発明は、コンピュータを、請求項からまでのいずれか一項に記載の画像復号装置として機能させるための画像復号プログラムにある。 The invention of claim 8 resides in an image decoding program for causing a computer to function as the image decoding apparatus according to any one of claims 2 to 6 .

以上のように、本発明によれば、補強信号を用いて、オブジェクトである被写体を含む画像の分解能を、効率的に向上させることが可能となる。   As described above, according to the present invention, it is possible to efficiently improve the resolution of an image including a subject that is an object using a reinforcement signal.

本発明の実施形態による画像符号化装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image coding apparatus by embodiment of this invention. 実施例1による画像符号化手段の構成を示すブロック図である。It is a block diagram which shows the structure of the image coding means by Example 1. 実施例1の画像符号化手段により、空間方向に処理される画像例を説明する図である。It is a figure explaining the example of an image processed by the image coding means of Example 1 in the spatial direction. 実施例1の変形例による画像符号化手段の構成を示すブロック図である。It is a block diagram which shows the structure of the image coding means by the modification of Example 1. 実施例1の変形例の画像符号化手段により、空間方向に処理される画像例を説明する図である。It is a figure explaining the example of an image processed by the image coding means of the modification of Example 1 in the space direction. 実施例2の画像符号化手段により、時間方向に処理される画像例を説明する図である。It is a figure explaining the example of an image processed by the image coding means of Example 2 in a time direction. 実施例2の変形例の画像符号化手段により、時間方向に処理される画像例を説明する図である。It is a figure explaining the example of an image processed by the image coding means of the modification of Example 2 in a time direction. 本発明の実施形態による画像復号装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image decoding apparatus by embodiment of this invention. 画像復号手段の構成を示すブロック図である。It is a block diagram which shows the structure of an image decoding means. 実施例1及び実施例1の変形例に対応する画像復号手段により、空間方向に処理される画像例を説明する図である。It is a figure explaining the example of an image processed by the image decoding means corresponding to the modification of Example 1 and Example 1 in a spatial direction. 実施例2及び実施例2の変形例に対応する画像復号手段により、時間方向に処理される画像例を説明する図である。It is a figure explaining the example of an image processed in the time direction by the image decoding means corresponding to the modification of Example 2 and Example 2. FIG.

以下、本発明を実施するための最良の形態について、図面を参照して説明する。
本発明は、画像を入力して符号化し、符号列を出力する画像符号化装置と、画像符号化手段から符号列を入力し、符号列を復号して画像を出力する画像復号装置とを備えたシステムにおいて、画像符号化装置が、低分解能の画像に基づいて、所定のオブジェクトを検出してオブジェクト領域情報を生成し、オブジェクト領域情報の示す領域を高分解能化するための補強信号を生成し、低分解能の画像及び補強信号を符号化し、符号列を出力することを特徴とする。また、本発明は、画像復号装置が、画像符号化装置から符号列を入力し、符号列を復号して低分解能の画像及び補強信号を生成し、低分解能の画像に基づいて、所定のオブジェクトを検出してオブジェクト領域情報を生成し、オブジェクト領域情報の示す領域に配置した補強信号と、低分解能の画像とにより鮮鋭化画像を生成することを特徴とする。これにより、画像符号化装置から画像復号装置へ出力されるデータは、低分解能の画像の符号列と、オブジェクト領域情報の示す領域に配置される補強信号の符号列であり、オブジェクトの配置に関するオブジェクト領域情報の符号列を含まないから、符号列のデータ量は少なくて済む。したがって、補強信号を用いて、オブジェクトである被写体を含む画像の分解能を、効率的に向上させることが可能となる。
The best mode for carrying out the present invention will be described below with reference to the drawings.
The present invention includes an image encoding apparatus that inputs and encodes an image and outputs a code string, and an image decoding apparatus that receives the code string from the image encoding means, decodes the code string, and outputs an image. In this system, the image encoding device detects a predetermined object based on the low-resolution image, generates object region information, and generates a reinforcement signal for increasing the resolution of the region indicated by the object region information. The low-resolution image and the reinforcement signal are encoded, and a code string is output. Further, according to the present invention, an image decoding apparatus inputs a code string from an image encoding apparatus, decodes the code string to generate a low resolution image and a reinforcement signal, and generates a predetermined object based on the low resolution image. Is detected to generate object region information, and a sharpened image is generated from a reinforcement signal arranged in the region indicated by the object region information and a low-resolution image. Thus, the data output from the image encoding device to the image decoding device is a code sequence of a low-resolution image and a code sequence of a reinforcement signal arranged in the area indicated by the object area information. Since the region information code string is not included, the data amount of the code string is small. Therefore, it is possible to efficiently improve the resolution of an image including a subject that is an object using the reinforcement signal.

〔画像符号化装置〕
まず、本発明の実施形態による画像符号化装置について説明する。図1は、画像符号化装置の構成を示すブロック図である。この画像符号化装置100は、画像符号化手段1及びオブジェクト検出手段2を備えて構成される。画像符号化装置100は、画像Hを入力し、画像符号化処理及びオブジェクト検出処理により、オブジェクト領域情報Dの示す空間領域または時間領域の補強信号Eである高分解能化のための画像と、縮小画像Lである低分解能画像とを含む符号列μを生成し、画像復号装置へ出力する。
[Image coding device]
First, an image encoding device according to an embodiment of the present invention will be described. FIG. 1 is a block diagram illustrating a configuration of an image encoding device. The image encoding apparatus 100 includes an image encoding unit 1 and an object detection unit 2. The image encoding apparatus 100 receives an image H, and performs image encoding processing and object detection processing to increase the resolution of the spatial region or time region reinforcement signal E i indicated by the object region information D, A code string μ including a low-resolution image that is the reduced image L is generated and output to the image decoding apparatus.

画像符号化手段1は、画像Hを入力し、オブジェクト検出手段2からオブジェクト領域情報Dを入力し、画像Hとオブジェクト領域情報Dとに基づいて画像符号化を行い、符号列μを生成して出力する。また、画像符号化手段1は、画像Hに基づいて、オブジェクト検出手段2がオブジェクトを検出するために用いる画像(オブジェクト検出用画像)を生成し、オブジェクト検出用画像をオブジェクト検出手段2に出力する。   The image encoding means 1 receives the image H, receives the object area information D from the object detection means 2, performs image encoding based on the image H and the object area information D, and generates a code string μ. Output. The image encoding unit 1 generates an image (object detection image) used by the object detection unit 2 to detect an object based on the image H, and outputs the object detection image to the object detection unit 2. .

オブジェクト検出手段2は、画像符号化手段1からオブジェクト検出用画像を入力し、オブジェクト検出用画像から所定のオブジェクトを検出し、高精細な画像を伝送する必要があると判断される空間領域または時間領域(オブジェクトを含む領域)をオブジェクト領域情報Dとして生成し、画像符号化手段1に出力する。   The object detection means 2 receives an object detection image from the image encoding means 1, detects a predetermined object from the object detection image, and determines a spatial region or time determined to require transmission of a high-definition image. A region (region including the object) is generated as object region information D and output to the image encoding means 1.

以下、画像はモノクロ画像の場合を例にとって説明するが、色、波長または分光特性によって複数の成分(色成分)を有するカラー画像等の場合には、各色成分を要素に持つ色ベクトルとして各画素の画素値を取り扱うこととする。したがって、画像はモノクロ画像に限らず、カラー画像等にも適用がある。また、画像符号化手段1に入力される画像Hの大きさを幅S、高さSとし、画像の水平位置x及び垂直位置yの座標を(x,y)とし、座標(x,y)における、画像Hの画素値をH(x,y)とする。 Hereinafter, the case where the image is a monochrome image will be described as an example. However, in the case of a color image having a plurality of components (color components) according to color, wavelength, or spectral characteristics, each pixel is represented as a color vector having each color component as an element. It is assumed that the pixel value of is handled. Therefore, the image is not limited to a monochrome image but can be applied to a color image or the like. Also, the size of the image H input to the image encoding means 1 is defined as the width S x and the height S y , the coordinates of the horizontal position x and the vertical position y of the image are (x, y), and the coordinates (x, The pixel value of the image H in y) is assumed to be H (x, y).

以下、画像符号化装置100の画像符号化手段1及びオブジェクト検出手段2について、実施例1、実施例1の変形例、実施例2及び実施例2の変形例に分けて説明する。実施例1は、画像の空間分解能を向上させるために、空間方向の画像処理を行う例であり、実施例2は、画像の時間分解能を向上させるために、時間方向の画像処理を行う例である。また、実施例1,2は、画像Hの縮小画像Lをオブジェクト検出用画像とし、オブジェクト検出用画像に基づいてオブジェクト領域情報Dを生成する例であるのに対し、実施例1,2の変形例は、画像Hの縮小画像Lの符号列を復号して局所復号画像L’を生成し、局所復号画像L’をオブジェクト検出用画像とし、オブジェクト検出用画像に基づいてオブジェクト領域情報Dを生成する例である。   Hereinafter, the image encoding unit 1 and the object detection unit 2 of the image encoding apparatus 100 will be described separately in the first embodiment, the modified example of the first example, the modified example of the second example, and the second example. The first embodiment is an example in which image processing in the spatial direction is performed in order to improve the spatial resolution of the image, and the second embodiment is an example in which image processing in the temporal direction is performed in order to improve the temporal resolution of the image. is there. The first and second embodiments are examples in which the reduced image L of the image H is used as an object detection image and the object region information D is generated based on the object detection image. In the example, the code sequence of the reduced image L of the image H is decoded to generate a local decoded image L ′, the local decoded image L ′ is used as an object detection image, and the object region information D is generated based on the object detection image This is an example.

〔実施例1〕
まず、実施例1について説明する。実施例1では、画像符号化装置100は、画像Hの空間分解能を向上させるために、画像の縮小画像Lをオブジェクト検出用画像とし、オブジェクト検出用画像に基づいてオブジェクト領域情報Dを生成し、空間方向の画像処理を行う。
[Example 1]
First, Example 1 will be described. In Example 1, in order to improve the spatial resolution of the image H, the image encoding device 100 uses the reduced image L of the image as an object detection image, generates object region information D based on the object detection image, Perform spatial image processing.

図1に示した画像符号化装置100のオブジェクト検出手段2は、画像符号化手段1からオブジェクト検出用画像である縮小画像Lを入力し、この縮小画像Lから所定のオブジェクトを検出し、そのオブジェクトを含む領域群をオブジェクト領域情報Dとして画像符号化手段1に出力する。具体的には、オブジェクト検出手段2は、予め設定された画像パターン、色ヒストグラム等のテンプレートに合致する領域を、所定のオブジェクトとして縮小画像Lから検出する。また、オブジェクト検出手段2は、予め設定された文字群のテンプレートにより、光学文字認識(OCR:Optical Character Recognition)手法を用いて、所定のオブジェクトを縮小画像Lから検出するようにしてもよいし、Haar−like特徴に基づくBoostingによる手法等の既存の顔検出手法を用いて、顔のオブジェクトを縮小画像Lから検出するようにしてもよいし、画像の局所的なコントラストが高い領域、局所的に際立った色(平均的な色から外れた色等)、特定の色領域(肌色を有する領域)等のような画像の重要度を算出する各種手法を用いて、所定のオブジェクトを検出するようにしてもよい。ここで、オブジェクト検出手段2により出力されるオブジェクト領域情報Dは、検出されたオブジェクトを含む領域を示す座標情報群であり、画像Hと同じ空間スケールの情報である。   The object detection means 2 of the image encoding device 100 shown in FIG. 1 receives a reduced image L that is an object detection image from the image encoding means 1, detects a predetermined object from the reduced image L, and detects the object. Is output to the image encoding means 1 as object region information D. Specifically, the object detection unit 2 detects a region that matches a template such as a preset image pattern or color histogram from the reduced image L as a predetermined object. Further, the object detection means 2 may detect a predetermined object from the reduced image L by using an optical character recognition (OCR) method based on a preset character group template. A face object may be detected from the reduced image L by using an existing face detection method such as a boosting method based on the Haar-like feature, or a region having a high local contrast in the image may be locally detected. Use a variety of methods to calculate the importance of an image, such as distinct colors (such as colors that deviate from the average color), specific color areas (areas with skin color), etc. May be. Here, the object area information D output by the object detection means 2 is a coordinate information group indicating an area including the detected object, and is information on the same spatial scale as the image H.

オブジェクト領域情報DにはF個(Fは0以上の整数とする)の部分集合の領域が含まれるものとし、そのi番目(i∈{0,・・・,F−1})の領域をDとする。領域Dは、任意の形状であってもよく、例えば、領域外の画素値を0、領域内の画素値を1として表した二値画像、頂点数及び頂点の画像座標群により表した多角形、左上及び右下の2画像座標により表したバウンディングボックス、または、領域の境界をチェインコードで表した輪郭とするようにしてもよい。領域Dの数式については後述する(式(19)(20)(21)を参照)。 The object area information D includes F (F is an integer greater than or equal to 0) subset area, and the i-th area (i∈ {0,..., F−1}) Let Di. The area D i may have any shape, for example, a binary image in which the pixel value outside the area is 0, the pixel value in the area is 1, and the number of vertices and the image coordinate group of the vertices. You may make it make it the outline which expressed the square, the bounding box represented by two image coordinates of upper left and lower right, or the boundary of an area | region by the chain code. Formulas for the region D i will be described later (see formulas (19), (20), and (21)).

図2は、実施例1による画像符号化手段1の構成を示すブロック図である。この画像符号化手段1は、画像縮小手段10、縮小画像符号化手段11、画像拡大手段12、画像切り出し手段13,14、差分演算手段15、補強信号符号化手段16及び多重化手段17を備えて構成される。   FIG. 2 is a block diagram illustrating a configuration of the image encoding unit 1 according to the first embodiment. The image encoding unit 1 includes an image reduction unit 10, a reduced image encoding unit 11, an image enlargement unit 12, image clipping units 13 and 14, a difference calculation unit 15, a reinforcement signal encoding unit 16, and a multiplexing unit 17. Configured.

(画像縮小手段)
画像縮小手段10は、画像Hを入力し、画像Hにおける所定の画素を間引いて縮小し、低解像度の(空間分解能の低い)縮小画像Lを生成して縮小画像符号化手段11及び画像拡大手段12に出力すると共に、オブジェクト検出用画像としてオブジェクト検出手段2に出力する。具体的には、画像縮小手段10は、縮小画像Lの幅をT、高さをTとし、座標(x,y)における、縮小画像Lの画素値をL(x,y)とすると、画像Hの画素を(S/T,S/T)の間隔で間引いて標本化し、以下の式により縮小画像Lを生成する。これにより、縮小画像Lは、画像Hに対して画素数が減少し、空間的に低分解能の画像となる。

Figure 0005308322
(Image reduction means)
The image reduction means 10 receives the image H, thins out a predetermined pixel in the image H, reduces it, generates a reduced image L with low resolution (low spatial resolution), and reduces the image encoding means 11 and image enlargement means. 12 and output to the object detection means 2 as an object detection image. Specifically, the image reducing means 10 assumes that the width of the reduced image L is T x , the height is T y, and the pixel value of the reduced image L at the coordinates (x, y) is L (x, y). Then, the pixels of the image H are sampled by sampling at intervals of (S x / T x , S y / T y ), and the reduced image L is generated by the following equation. As a result, the reduced image L has a smaller number of pixels than the image H, and becomes a spatially low resolution image.
Figure 0005308322

,Qは、座標値のスケーリング及び量子化を行う関数であり、例えば、Qは以下の式(2)または式(3)により、Qは以下の式(4)または式(5)により実装することができる。

Figure 0005308322
Figure 0005308322
Figure 0005308322
Figure 0005308322
Q x and Q y are functions for scaling and quantizing the coordinate values. For example, Q x is expressed by the following expression (2) or expression (3), and Q y is expressed by the following expression (4) or expression ( 5).
Figure 0005308322
Figure 0005308322
Figure 0005308322
Figure 0005308322

ここで、O及びOは標本化位置(位相)をずらすための定数であり、好ましくは、0≦O<S/Tかつ0≦O<S/Tとする。式(2)及び式(4)は、(S/T)x+Oまたは(S/T)y+Oで求められた標本化位置が非整数となった場合に、小数点以下切り捨てにより整数化を行う場合に用いられる。また、式(3)及び式(5)は、(S/T)x−Oまたは(S/T)y−Oで求められた標本化位置が非整数となった場合に、小数点以下切り上げにより整数化を行う場合に用いられる。 Here, O x and O y are constants for shifting the sampling position (phase), and preferably 0 ≦ O x <S x / T x and 0 ≦ O y <S y / T y . Equations (2) and (4) are obtained by rounding down when the sampling position obtained by (S x / T x ) x + O x or (S y / T y ) y + O y becomes a non-integer. Used when performing integerization. Further, when the sampling position obtained by (S x / T x ) x−O x or (S y / T y ) y−O y becomes a non-integer, Expression (3) and Expression (5) In addition, it is used when rounding up to the nearest whole number.

尚、画像縮小手段10は、画像Hに対し画像フィルタを施した後、画像Hの画素を(S/T,S/T)の間隔で間引いて標本化し、縮小画像Lを生成するようにしてもよい。例えば、画像フィルタとして、以下の式に示すインパルス応答f(x,y)の特性を有する低域通過型フィルタ(LPF:Low−Pass Filter)を用いることができる。このインパルス応答f(x,y)は、x及びyに関する各sinc関数の積を近似するような特性を有する。

Figure 0005308322
ここで、M=S/T、M=S/Tとし、M,Mをスケールという。Aは、フィルタの直流ゲインが1となるように定めた定数である。sinc関数は、以下の式により定義される。
Figure 0005308322
The image reducing means 10 applies an image filter to the image H and then samples the image H by thinning out the pixels of the image H at intervals of (S x / T x , S y / T y ) to generate a reduced image L. You may make it do. For example, a low-pass filter (LPF: Low-Pass Filter) having an impulse response f (x, y) characteristic represented by the following equation can be used as the image filter. The impulse response f (x, y) has a characteristic that approximates the product of each sinc function with respect to x and y.
Figure 0005308322
Here, M x = S x / T x, and M y = S y / T y , M x, the M y of scale. A is a constant determined so that the DC gain of the filter is 1. The sinc function is defined by the following equation.
Figure 0005308322

この場合、画像縮小手段10は、画像Hに対し画像フィルタを施す際に、水平方向及び垂直方向に独立かつカスケードにLPFを施すようにしてもよい。水平方向または垂直方向の1軸に関するスケールMのLPFによるインパルス応答をf(t)とすると、インパルス応答f(t)は、以下の式により表すことができる。

Figure 0005308322
ここで、Bは、フィルタの直流ゲインが1となるように定めた定数である。 In this case, the image reducing means 10 may apply the LPF to the image H in an independent and cascade manner in the horizontal direction and the vertical direction when applying the image filter to the image H. Assuming that the impulse response by the LPF of the scale M with respect to one axis in the horizontal direction or the vertical direction is f M (t), the impulse response f M (t) can be expressed by the following equation.
Figure 0005308322
Here, B M is a constant determined so that the DC gain of the filter is 1.

例えば、スケールM=2のLPFを7タップのフィルタにより構成する場合、インパルス応答f(t)は、以下の式により表すことができる。

Figure 0005308322
直流ゲインが1であるから、
Figure 0005308322
となる。 For example, when an LPF with a scale M = 2 is configured by a 7-tap filter, the impulse response f M (t) can be expressed by the following equation.
Figure 0005308322
Since the DC gain is 1,
Figure 0005308322
It becomes.

すなわち、以下の式により表される。

Figure 0005308322
これは、整数の掛け算及び右8ビットシフト(256の割り算)により、近似的に以下の式で表すことができる。
Figure 0005308322
That is, it is represented by the following formula.
Figure 0005308322
This can be approximately expressed by the following equation by integer multiplication and right 8-bit shift (256 division).
Figure 0005308322

例えば、画像Hを、水平方向及び垂直方向に各1/2に縮小する場合、画像縮小手段10は、式(7)または式(8)のタップ係数を有するLPFを、まず、画像Hに対し水平方向(または垂直方向)に一次元的に施し、その結果の画像に対し引き続き垂直方向(または水平方向)に一次元的に施し、さらに、その結果の画像を水平方向に2画素周期かつ垂直方向に2画素周期でサブサンプリングする。これにより、画像Hを水平方向及び垂直方向に各1/2に縮小した縮小画像Lが生成される。   For example, when the image H is reduced to ½ each in the horizontal direction and the vertical direction, the image reduction means 10 first applies the LPF having the tap coefficient of Expression (7) or Expression (8) to the image H. Apply one-dimensionally in the horizontal direction (or vertical direction), and then apply the resulting image one-dimensionally in the vertical direction (or horizontal direction). Sub-sampling in the direction with a period of two pixels. As a result, a reduced image L obtained by reducing the image H by 1/2 in the horizontal direction and the vertical direction is generated.

(縮小画像符号化手段)
縮小画像符号化手段11は、画像縮小手段10から低解像度の縮小画像Lを入力し、縮小画像Lを符号化して符号列λに変換し、低解像度画像の符号列λを多重化手段17に出力する。具体的には、縮小画像符号化手段11は、縮小画像Lの各画素の画素値を有限の符号列で表現し、縮小画像L上を走査することにより、各画素の符号列を一次元的に結合して符号列λを生成し、出力する。この符号化方式をパルス符号変調(PCM:Pulse Code Modulation)という。すなわち、縮小画像符号化手段11は、縮小画像L上の画像座標(x,y)において、yを0からT−1まで変化させながら、各yについてxを0からT−1まで変化させることにより、その画素位置(x,y)における画素値L(x,y)を量子化して有限の符号列に変換し、その符号列を一次元的に順次結合して符号列λを生成し、出力する
(Reduced image encoding means)
The reduced image encoding means 11 receives the low resolution reduced image L from the image reducing means 10, encodes the reduced image L and converts it into a code string λ, and sends the code string λ of the low resolution image to the multiplexing means 17. Output. Specifically, the reduced image encoding means 11 expresses the pixel value of each pixel of the reduced image L as a finite code string, and scans the reduced image L to convert the code string of each pixel in a one-dimensional manner. To generate a code string λ and output it. This encoding method is called pulse code modulation (PCM). That is, the reduced image encoding means 11 changes x from 0 to T x −1 for each y while changing y from 0 to T y −1 in the image coordinates (x, y) on the reduced image L. By doing so, the pixel value L (x, y) at the pixel position (x, y) is quantized and converted into a finite code string, and the code string is sequentially combined one-dimensionally to generate a code string λ. And output

尚、縮小画像符号化手段11は、既存の画像符号化方式または動画像符号化方式を用いるようにしてもよい。例えば、符号化方式として、JPEG、JPEG 2000、MPEG−1、MPEG−2、MPEG−4、MPEG−4 AVC/H.264等を用いる。   Note that the reduced image encoding unit 11 may use an existing image encoding method or a moving image encoding method. For example, JPEG, JPEG 2000, MPEG-1, MPEG-2, MPEG-4, MPEG-4 AVC / H. H.264 or the like is used.

(画像拡大手段)
画像拡大手段12は、画像縮小手段10から低解像度の縮小画像Lを入力し、縮小画像Lを画像Hと同じ大きさ(水平方向及び垂直方向の画素数)になるまで画素を挿入して拡大し、拡大画像Kを生成して画像切り出し手段13に出力する。ここで、拡大画像Kは、スペクトルの広域成分が存在しないため、ぼけた画像となる。具体的には、画像拡大手段12は、以下の式に示す最近傍法の補間手法により縮小画像Lを拡大し、拡大画像Kを生成する。

Figure 0005308322
(Image enlargement means)
The image enlarging means 12 receives the reduced image L having a low resolution from the image reducing means 10, and inserts and enlarges the reduced image L until the same size as the image H (the number of pixels in the horizontal and vertical directions). Then, an enlarged image K is generated and output to the image cutout means 13. Here, the enlarged image K is a blurred image because there is no broad spectrum component. Specifically, the image enlarging means 12 enlarges the reduced image L by the nearest neighbor interpolation method shown in the following equation to generate an enlarged image K.
Figure 0005308322

,Rは、座標値のスケーリング及び量子化を行う関数であり、例えば、Rは以下の式(13)または式(14)により、Rは以下の式(15)または式(16)により実装することができる。

Figure 0005308322
Figure 0005308322
Figure 0005308322
Figure 0005308322
R x and R y are functions for scaling and quantizing coordinate values. For example, R x is expressed by the following formula (13) or formula (14), and R y is expressed by the following formula (15) or formula ( 16).
Figure 0005308322
Figure 0005308322
Figure 0005308322
Figure 0005308322

ここで、P及びPは小数の丸めの方法を決定する定数であり、好ましくは、0≦P<1かつ0≦P<1とする。特に、P=1/2における式(13)、及びP=1/2における式(15)は、四捨五入による丸めとなる。 Here, P x and P y are constants that determine the method of rounding decimals, and preferably 0 ≦ P x <1 and 0 ≦ P y <1. In particular, the expression (13) at P x = 1/2 and the expression (15) at P y = 1/2 are rounded off by rounding off.

尚、画像拡大手段12は、最近傍法以外の補間手法により縮小画像Lを拡大し、拡大画像Kを生成するようにしてもよい。例えば、画像拡大手段12は、双一次補間手法により、以下の式に示すように拡大画像Kを生成する。

Figure 0005308322
ここで、
Figure 0005308322
である。 The image enlarging means 12 may enlarge the reduced image L by an interpolation method other than the nearest neighbor method, and generate an enlarged image K. For example, the image enlarging means 12 generates an enlarged image K as shown in the following equation by a bilinear interpolation method.
Figure 0005308322
here,
Figure 0005308322
It is.

また、例えば、画像拡大手段12は、双三次補間手法により、以下の式に示すように拡大画像Kを生成する。

Figure 0005308322
ここで、
Figure 0005308322
である。 Further, for example, the image enlarging means 12 generates an enlarged image K as shown in the following equation by a bicubic interpolation method.
Figure 0005308322
here,
Figure 0005308322
It is.

(画像切り出し手段)
画像切り出し手段13は、画像拡大手段12から拡大画像Kを入力し、オブジェクト検出手段2からオブジェクト領域情報Dを入力し、拡大画像Kの中から、オブジェクト領域情報Dが示す空間領域である座標の部分画像Bを切り出し、部分画像Bを差分演算手段15に出力する。オブジェクト領域情報Dは、複数の集合列(F個の集合列)であってもよい。Fは0以上の整数である。この場合、画像切り出し手段13により出力される部分画像Bは、オブジェクト領域情報Dに含まれる各領域D(i∈{0,・・・,F−1})に対応している。F=0のときには、部分画像Bは出力されない。つまり、画像切り出し手段13は、全てのインデックスi=0,・・・,F−1に対して部分画像Bを切り出し、部分画像の画像列(Bi=0,・・・,F−1を出力する。
(Image clipping means)
The image cutout means 13 inputs the enlarged image K from the image enlargement means 12, receives the object area information D from the object detection means 2, and from the enlarged image K, the coordinates of the spatial area indicated by the object area information D are displayed. The partial image B i is cut out and the partial image B i is output to the difference calculation means 15. The object area information D may be a plurality of aggregate strings (F aggregate strings). F is an integer of 0 or more. In this case, the partial image B i output by the image cutout unit 13 corresponds to each area D i (i∈ {0,..., F−1}) included in the object area information D. When F = 0, the partial image B i is not output. That is, the image cutout unit 13 cuts out the partial image B i for all indexes i = 0,..., F−1, and the partial image sequence (B i ) i = 0,. -1 is output.

オブジェクト領域情報Dは、以下の式により定義される。

Figure 0005308322
ここで、φは空集合である。領域Dは、任意の形状であってもよいが、計算の簡易化のため、例えば、各辺が画像の水平軸または垂直軸と平行な長方形または正方形の領域内及びその境界とするのが望ましい。 The object area information D is defined by the following formula.
Figure 0005308322
Here, φ is an empty set. The area D i may have any shape, but for simplification of calculation, for example, each area may be in a rectangular or square area parallel to the horizontal or vertical axis of the image and its boundary. desirable.

例えば、領域Dを長方形または正方形の領域内及びその境界とした場合、その左辺のx座標をp、右辺のx座標をq、上辺のy座標をr、下辺のy座標をsとすると、領域Dは、以下の式により定義される。

Figure 0005308322
ここで、
Figure 0005308322
とする。この場合、部分画像Bは、以下の式により表される。
Figure 0005308322
For example, if the region D i is a rectangular or square region and its boundary, the left side x coordinate is p i , the right side x coordinate is q i , the upper side y coordinate is r i , and the lower side y coordinate is s. Assuming i , the region D i is defined by the following equation.
Figure 0005308322
here,
Figure 0005308322
And In this case, the partial image B i is represented by the following equation.
Figure 0005308322

一方、画像切り出し手段14は、画像Hを入力し、オブジェクト検出手段2からオブジェクト領域情報Dを入力し、画像Hの中から、オブジェクト領域情報Dが示す空間領域の座標の部分画像Cを切り出し、部分画像Cを差分演算手段15に出力する。オブジェクト領域情報Dは、画像切り出し手段13が入力するものと同一であり、部分画像Cは、オブジェクト領域情報Dに含まれる各領域D(i∈{0,・・・,F−1})に対応している。F=0のときには、部分画像Cは出力されない。画像切り出し手段14は、画像切り出し手段13と同一の処理を行い、拡大画像Kの代わりに画像Hを入力し、部分画像Bの代わりの部分画像Cを生成して出力する。つまり、画像切り出し手段14は、全てのインデックスi=0,・・・,F−1に対して部分画像Cを生成し、部分画像の画像列(Ci=0,・・・,F−1を出力する。 On the other hand, the image cutout means 14 inputs the image H, inputs the object area information D from the object detection means 2, and cuts out the partial image C i of the coordinates of the spatial area indicated by the object area information D from the image H. The partial image C i is output to the difference calculation means 15. The object area information D is the same as that input by the image cutout means 13, and the partial image C i is an area D i (i∈ {0,..., F-1} included in the object area information D. ). When F = 0, the partial image C i is not output. The image cutout unit 14 performs the same process as the image cutout unit 13, inputs the image H instead of the enlarged image K, and generates and outputs a partial image C i instead of the partial image B i . That is, the image cutout unit 14 generates a partial image C i for all indexes i = 0,..., F−1, and the partial image sequence (C i ) i = 0,. F-1 is output.

例えば、オブジェクト領域情報Dが、式(20)に示したように長方形または正方形の領域内及びその境界の場合、部分画像Cは、以下の式により表される。

Figure 0005308322
For example, when the object area information D is in a rectangular or square area and its boundary as shown in Expression (20), the partial image C i is expressed by the following expression.
Figure 0005308322

(差分演算手段)
差分演算手段15は、画像切り出し手段13から部分画像Bを入力し、画像切り出し手段14から部分画像Cを入力し、部分画像Bと部分画像Cとの間の差分画像Eを演算し、差分画像Eを補強信号として補強信号符号化手段16に出力する。ここで、差分演算手段15は、全てのインデックスi=0,・・・,F−1に対して差分画像Eを演算し、差分画像の画像列(Ei=0,・・・,F−1を出力する。F=0の場合、差分演算手段15は、画像切り出し手段13,14から部分画像B,Cを入力しないから、差分画像Eを出力しない。
(Difference calculation means)
The difference calculation means 15 inputs the partial image B i from the image cut-out means 13, inputs the partial image C i from the image cut-out means 14, and obtains the difference image E i between the partial image B i and the partial image C i. The difference image E i is calculated and output to the reinforcement signal encoding means 16 as a reinforcement signal. Here, the difference calculation means 15 calculates the difference image E i for all the indexes i = 0,..., F−1, and the difference image image sequence (E i ) i = 0,. , F-1 is output. When F = 0, the difference calculation means 15 does not output the difference image E i because the partial images B i and C i are not input from the image cutout means 13 and 14.

具体的には、差分演算手段15は、以下の式に示す通常の引き算により、差分画像Eを生成する。

Figure 0005308322
Specifically, the difference calculation means 15 generates the difference image E i by the normal subtraction shown in the following equation.
Figure 0005308322

尚、差分演算手段15は、画像の輝度の量子化ステップ数G(例えば、Vビットで輝度値を量子化した場合、G=2)を法とする部分画像Bと部分画像Cとの間の減算により、以下の式のように、差分画像Eを求めるようにしてもよい。

Figure 0005308322
部分画像B及び部分画像Cがカラー画像の場合、差分演算手段15は、色成分毎に式(25)の演算を行い、差分画像Eを求める。 Note that the difference calculation means 15 uses the partial image B i and the partial image C i modulo the number of quantization steps G of the luminance of the image (eg, G = 2 V when the luminance value is quantized with V bits). The difference image E i may be obtained by subtraction between the two as shown in the following equation.
Figure 0005308322
When the partial image B i and the partial image C i are color images, the difference calculation means 15 calculates the equation (25) for each color component to obtain the difference image E i .

また、差分演算手段15は、画像の輝度の量子化ステップ数Gを法とする部分画像Bと部分画像Cとの間の減算を行い、この減算結果にオフセットUを加算し、以下の式のように、差分画像Eを求めるようにしてもよい。

Figure 0005308322
ここで、オフセットUは、好ましくは量子化ステップ数Gの1/2(小数点以下の端数を生じる場合は整数に丸める)とする。例えば、Vビットで輝度値を量子化した場合、U=2V−1とする。部分画像B及び部分画像Cがカラー画像の場合、差分演算手段15は、色成分毎に式(26)の演算を行い、差分画像Eを求める。また、差分演算手段15は、部分画像B及び部分画像Cの階調数を法とする剰余の差分を演算し、この演算結果を差分画像Eとして生成するようにしてもよい。 Further, the difference calculation means 15 performs subtraction between the partial image B i and the partial image C i modulo the quantization step number G of the luminance of the image, adds the offset U to the subtraction result, and As in the equation, the difference image E i may be obtained.
Figure 0005308322
Here, the offset U is preferably ½ of the number of quantization steps G (rounded to an integer when a fractional part is generated). For example, when the luminance value is quantized with V bits, U = 2V-1 . When the partial image B i and the partial image C i are color images, the difference calculation means 15 calculates the equation (26) for each color component to obtain the difference image E i . Further, the difference calculation means 15 may calculate a residual difference modulo the number of gradations of the partial image B i and the partial image C i and generate the calculation result as a difference image E i .

(補強信号符号化手段)
補強信号符号化手段16は、差分演算手段15から差分画像E(補強信号E)を入力し、差分画像Eを符号化して符号列εに変換し、符号列εを多重化手段17に出力する。F=0の場合、補強信号符号化手段16は、符号列εを出力しないか、または、差分画像Eが存在しないことを識別するための既定の符号列εを出力する。
(Reinforcement signal encoding means)
The reinforcement signal encoding means 16 receives the difference image E i (reinforcement signal E i ) from the difference calculation means 15, encodes the difference image E i to convert it into a code string ε, and multiplexes the code string ε. Output to. In the case of F = 0, the reinforcement signal encoding unit 16 does not output the code sequence ε or outputs a predetermined code sequence ε for identifying that the difference image E i does not exist.

具体的には、補強信号符号化手段16は、全てのインデックスi=0,・・・,F−1に対し、差分画像Eの各画素の画素値を有限の符号列で表現し、差分画像E上を走査することにより、各画素の符号列を一次元的に結合して符号列εを生成し、出力する。この符号化方式をパルス符号変調という。すなわち、補強信号符号化手段16は、全てのインデックスi=0,・・・,F−1に対し、差分画像E上の画像座標(x,y)において、yを0からs−rまで変化させながら、各yについてxを0からq−pまで変化させることにより、その画素位置(x,y)における画素値E(x,y)を量子化して有限の符号列に変換し、その符号列を一次元的に順次結合して符号列εを生成し、出力する Specifically, the reinforcement signal encoding means 16 expresses the pixel value of each pixel of the difference image E i with a finite code sequence for all indexes i = 0,. By scanning the image E i , the code sequence of each pixel is one-dimensionally combined to generate and output a code sequence ε. This encoding method is called pulse code modulation. That is, the reinforcement signal encoding unit 16 changes y from 0 to s i −r in the image coordinates (x, y) on the difference image E i for all indexes i = 0,. while changing to i, by changing x from 0 to q i -p i for each y, finite code sequence that pixel position (x, y) pixel values in the E i a (x, y) is quantized Is converted to, and the code sequence is sequentially combined one-dimensionally to generate and output a code sequence ε.

尚、補強信号符号化手段16は、既存の画像符号化方式または動画像符号化方式を用いるようにしてもよい。例えば、符号化方式として、JPEG、JPEG 2000、MPEG−1、MPEG−2、MPEG−4、MPEG−4 AVC/H.264等を用いる。   The reinforcement signal encoding unit 16 may use an existing image encoding method or moving image encoding method. For example, JPEG, JPEG 2000, MPEG-1, MPEG-2, MPEG-4, MPEG-4 AVC / H. H.264 or the like is used.

(多重化手段)
多重化手段17は、縮小画像符号化手段11から縮小画像Lの符号列λを入力し、補強信号符号化手段16から差分画像E(補強信号E)の符号列εを入力し、符号列λと符号列εとを多重化し、符号列μを生成して画像復号装置200へ出力する。具体的には、多重化手段17は、予め設定された順序で符号列λと符号列εとを結合して多重化し、符号列μを生成する。
(Multiplexing means)
The multiplexing unit 17 receives the code sequence λ of the reduced image L from the reduced image encoding unit 11 and the code sequence ε of the difference image E i (reinforcement signal E i ) from the reinforcement signal encoding unit 16. The sequence λ and the code sequence ε are multiplexed to generate a code sequence μ and output it to the image decoding apparatus 200. Specifically, the multiplexing unit 17 combines and multiplexes the code sequence λ and the code sequence ε in a preset order to generate a code sequence μ.

尚、多重化手段17は、符号列μを生成する際に、ヘッダ情報またはフッタ情報等の付加的な情報を含む符号列μを生成するようにしてもよい。例えば、付加的な情報とは、符号列λ及び符号列εが記述されている符号列μ内の位置を特定するための情報である。   The multiplexing means 17 may generate the code string μ including additional information such as header information or footer information when generating the code string μ. For example, the additional information is information for specifying a position in the code string μ in which the code string λ and the code string ε are described.

(実施例1の画像符号化手段により処理される画像例)
図3は、実施例1の画像符号化手段1により、空間方向に処理される画像例を説明する図である。縮小画像Lは、画像縮小手段10により画像Hから生成され、オブジェクト領域情報Dは、オブジェクト検出手段2により縮小画像Lであるオブジェクト検出用画像から生成され、拡大画像Kは、画像拡大手段12により縮小画像Lから生成される。また、部分画像Cは、画像切り出し手段14により、画像H及びオブジェクト領域情報Dから生成され、部分画像Bは、画像切り出し手段13により、拡大画像K及びオブジェクト領域情報Dから生成される。また、差分画像Eである補強信号Eは、差分演算手段15により、部分画像Cから部分画像Bを減算することにより求められる。
(Example of image processed by image encoding means of embodiment 1)
FIG. 3 is a diagram illustrating an example of an image processed in the spatial direction by the image encoding unit 1 according to the first embodiment. The reduced image L is generated from the image H by the image reducing unit 10, the object area information D is generated from the object detection image that is the reduced image L by the object detecting unit 2, and the enlarged image K is converted by the image expanding unit 12. It is generated from the reduced image L. The partial image C i is generated from the image H and the object region information D by the image cutout unit 14, and the partial image B i is generated from the enlarged image K and the object region information D by the image cutout unit 13. The reinforcing signal E i is a differential image E i is the differential operation circuit 15, obtained by subtracting the partial image B i from the partial images C i.

そして、低解像度画像の符号列λは、縮小画像符号化手段11により、縮小画像Lから生成され、高解像度画像を生成するための符号列εは、補強信号符号化手段16により、差分画像Eである補強信号Eから生成される。 The code sequence λ of the low resolution image is generated from the reduced image L by the reduced image encoding unit 11, and the code sequence ε for generating the high resolution image is generated by the reinforcement signal encoding unit 16 using the difference image E. a i is generated from the reinforcing signal E i.

以上のように、実施例1の画像符号化手段1を備えた画像符号化装置100によれば、オブジェクト検出手段2が、低解像度の縮小画像Lであるオブジェクト検出用画像に基づいて、高精細な高解像度画像を伝送する必要があると判断されるオブジェクト領域情報D(所定のオブジェクトを含む領域の情報)を生成し、画像符号化手段1の差分演算手段15が、オブジェクト領域情報Dの示す空間領域を高解像度化するための補強信号Eを、画像Hと、縮小画像Lが拡大された拡大画像Kとの間の差分を演算することにより生成し、多重化手段17が、縮小画像符号化手段11により縮小画像Lから生成された、低解像度画像の符号列λと、補強信号符号化手段16により補強信号Eから生成された、高解像度化のための符号列εとを多重化し、符号列μを画像復号装置200へ出力するようにした。これにより、画像復号装置200は、画像符号化装置100に備えたオブジェクト検出手段2と同様の手段を用いることにより、符号列λが復号された縮小画像Lからオブジェクト領域情報Dを生成することができる。また、オブジェクト領域情報Dの示す空間領域について、符号列εが復号された補強信号Eから、オブジェクトである被写体の滑らかな輪郭と詳細なテクスチャを再現した高精細な高解像度画像を生成することができる。 As described above, according to the image encoding device 100 including the image encoding unit 1 of the first embodiment, the object detection unit 2 performs high definition based on the object detection image that is the reduced resolution L of the low resolution. Object area information D (information of an area including a predetermined object) determined to be necessary to transmit a high-resolution image is generated, and the difference calculation means 15 of the image encoding means 1 indicates the object area information D The reinforcement signal E i for increasing the resolution of the spatial region is generated by calculating the difference between the image H and the enlarged image K obtained by enlarging the reduced image L, and the multiplexing unit 17 performs the reduction image. the coding unit 11 is generated from the reduced image L, a code sequence λ of the low-resolution image, which is generated from the reinforcing signal E i by the reinforcing signal encoding unit 16, and a code sequence for the higher resolution ε multi However, and it outputs a code string μ to the image decoding apparatus 200. Accordingly, the image decoding apparatus 200 can generate the object region information D from the reduced image L obtained by decoding the code string λ by using the same means as the object detection means 2 provided in the image encoding apparatus 100. it can. In addition, for the spatial region indicated by the object region information D, a high-definition high-resolution image that reproduces the smooth contour and detailed texture of the subject that is the object is generated from the reinforcement signal E i obtained by decoding the code sequence ε. Can do.

また、画像符号化装置100の画像符号化手段1における補強信号符号化手段16が符号化する信号は、高精細な高解像度画像を伝送する必要があると判断されるオブジェクト領域情報Dの空間領域についての補強信号Eのみで済み、補強信号Eは、差分演算手段15において部分画像B,Cの差分演算により生成されるから、符号量を削減することができる。また、画像符号化装置100から画像復号装置200へ出力される符号列μは、低解像度画像の符号列λ、及びオブジェクト領域情報Dの示す空間領域における高解像度化のための補強信号Eの符号列εであり、オブジェクトの配置に関するオブジェクト領域情報Dを含まないから、符号量を削減することができる。このような符号量の削減によって、符号化の効率を向上させることができる。つまり、補強信号Eを用いて、オブジェクトである被写体を含む部分画像の空間分解能を、効率的に向上させることが可能となる。 The signal encoded by the reinforcement signal encoding unit 16 in the image encoding unit 1 of the image encoding apparatus 100 is a spatial region of the object region information D that is determined to require transmission of a high-definition high-resolution image. needed only reinforcing signal E i for reinforcing signal E i is the partial image B i in the difference calculating unit 15, since is generated by a difference calculation of C i, it is possible to reduce the code amount. The code sequence μ output from the image encoding device 100 to the image decoding device 200 includes the code sequence λ of the low resolution image and the reinforcement signal E i for increasing the resolution in the spatial region indicated by the object region information D. Since the code string ε does not include the object area information D related to the arrangement of the objects, the code amount can be reduced. By reducing the amount of codes, it is possible to improve the encoding efficiency. That is, it is possible to efficiently improve the spatial resolution of the partial image including the subject that is the object by using the reinforcement signal E i .

尚、実施例1では、画像符号化手段1に備えた画像拡大手段12と画像切り出し手段13とを、別々の処理単位の構成要素として説明したが、これらを一つの処理単位の構成要素とするようにしてもよい。具体的には、画像符号化手段1は、画像拡大手段12及び画像切り出し手段13の代わりに、図2に示すように、これらの機能を有する画像拡大切り出し手段18を備える。画像拡大切り出し手段18は、画像縮小手段10から縮小画像Lを入力し、オブジェクト検出手段2からオブジェクト領域情報Dを入力し、オブジェクト領域情報Dに含まれる各領域D(i=0,・・・,F−1)について、画像縮小手段10における画像Hから所定の画素を間引いて縮小画像Lを生成する際の縮小比(スケールM=S/T,M=S/T)を考慮し、同じ縮小比にて各領域Dから所定の領域を間引いて縮小する。そして、画像拡大切り出し手段18は、縮小した領域情報に基づいて、縮小画像Lから部分画像を切り出し、画像拡大手段12において画素を増やして画像を拡大する際の拡大比を考慮し、同じ拡大比にて部分画像に画素を挿入して拡大し、部分画像Bを生成する。これにより、画像符号化手段1は、拡大画像Kを生成することなく、切り出した部分画像を拡大するようにしたから、演算量及びメモリ量が少なくて済み、補強信号Eを用いて、オブジェクトである被写体を含む部分画像の空間分解能を、一層効率的に向上させることが可能となる。 In the first embodiment, the image enlarging unit 12 and the image clipping unit 13 included in the image encoding unit 1 have been described as components of separate processing units. However, these are components of one processing unit. You may do it. Specifically, the image encoding unit 1 includes an image enlargement and cutout unit 18 having these functions as shown in FIG. 2 instead of the image enlargement unit 12 and the image cutout unit 13. The image enlargement / cutout means 18 inputs the reduced image L from the image reduction means 10 and the object area information D from the object detection means 2, and each area D i (i = 0,...) Included in the object area information D. .., F-1), the reduction ratio (scale M x = S x / T x , M y = S y / T) when generating a reduced image L by thinning predetermined pixels from the image H in the image reduction means 10. Considering y ), a predetermined area is thinned out from each area D i at the same reduction ratio and reduced. Then, the image enlargement / cutout unit 18 cuts out a partial image from the reduced image L based on the reduced area information, and considers the enlargement ratio when the image enlargement unit 12 enlarges the image by increasing the pixels, and the same enlargement ratio. It expanded by inserting a pixel in the partial image at, for generating a partial image B i. As a result, the image encoding unit 1 enlarges the clipped partial image without generating the enlarged image K, so that the calculation amount and the memory amount are small, and the reinforcement signal E i is used to Thus, the spatial resolution of the partial image including the subject can be improved more efficiently.

〔実施例1の変形例〕
次に、実施例1の変形例について説明する。実施例1の変形例では、画像符号化装置100は、画像の空間分解能を向上させるために、画像Hの縮小画像Lの符号列を復号して局所復号画像L’を生成し、局所復号画像L’をオブジェクト検出用画像とし、オブジェクト検出用画像に基づいてオブジェクト領域情報Dを生成し、空間方向の画像処理を行う。
[Modification of Example 1]
Next, a modification of the first embodiment will be described. In the modification of the first embodiment, the image encoding device 100 generates a locally decoded image L ′ by decoding the code sequence of the reduced image L of the image H in order to improve the spatial resolution of the image, and generates the locally decoded image. L ′ is an object detection image, object region information D is generated based on the object detection image, and image processing in the spatial direction is performed.

実施例1の変形例において、画像符号化装置100のオブジェクト検出手段2は、オブジェクト検出用画像として、縮小画像Lの代わりに局所復号画像L’を入力し、実施例1のオブジェクト検出手段2と同様の処理を行う。   In the modification of the first embodiment, the object detection unit 2 of the image encoding device 100 inputs the local decoded image L ′ instead of the reduced image L as the object detection image, and the object detection unit 2 of the first embodiment Similar processing is performed.

図4は、実施例1の変形例による画像符号化手段1の構成を示すブロック図である。この画像符号化手段1は、画像縮小手段10、縮小画像符号化手段11、画像拡大手段12、画像切り出し手段13,14、差分演算手段15、補強信号符号化手段16、多重化手段17及び局所画像復号手段19を備えて構成される。図4において、図2に示した実施例1による画像符号化手段1の構成と共通する部分には図2と同一の符号を付し、その詳しい説明は省略する。   FIG. 4 is a block diagram illustrating a configuration of the image encoding unit 1 according to a modification of the first embodiment. The image encoding means 1 includes an image reduction means 10, a reduced image encoding means 11, an image enlargement means 12, an image clipping means 13, 14, a difference calculation means 15, a reinforcement signal encoding means 16, a multiplexing means 17 and a local means. An image decoding means 19 is provided. 4, parts common to the configuration of the image encoding means 1 according to the first embodiment shown in FIG. 2 are assigned the same reference numerals as those in FIG. 2, and detailed descriptions thereof are omitted.

図2に示した実施例1による画像符号化手段1と、図4に示す実施例1の変形例による画像符号化手段1とを比較すると、両手段は、画像縮小手段10、縮小画像符号化手段11、画像拡大手段12、画像切り出し手段13,14、差分演算手段15、補強信号符号化手段16及び多重化手段17を備えている点で同一である。しかし、図4に示す実施例1の変形例による画像符号化手段1は、図2に示した実施例1による画像符号化手段1の構成に加え、局所画像復号手段19を備えている点で相違する。   Comparing the image encoding means 1 according to the first embodiment shown in FIG. 2 with the image encoding means 1 according to the modification of the first embodiment shown in FIG. 4, both means are the image reduction means 10 and the reduced image encoding. Means 11, image enlargement means 12, image cutout means 13 and 14, difference calculation means 15, reinforcement signal encoding means 16, and multiplexing means 17 are the same. However, the image encoding means 1 according to the modification of the first embodiment shown in FIG. 4 includes a local image decoding means 19 in addition to the configuration of the image encoding means 1 according to the first embodiment shown in FIG. Is different.

具体的には、図2に示した実施例1による画像符号化手段1は、縮小画像Lをオブジェクト検出用画像としてオブジェクト検出手段2に出力し、オブジェクト検出手段2から、縮小画像Lに基づいて生成されたオブジェクト領域情報Dを入力する。これに対し、図4に示す実施例1の変形例による画像符号化手段1は、縮小画像Lの符号列λを復号して得た局所復号画像L’をオブジェクト検出用画像としてオブジェクト検出手段2に出力し、オブジェクト検出手段2から、局所復号画像L’に基づいて生成されたオブジェクト領域情報Dを入力する。また、図2に示した実施例1による画像符号化手段1は、縮小画像Lを拡大し、部分画像Bを切り出して補強信号Eを生成する。これに対し、図4に示す実施例1の変形例による画像符号化手段1は、局所復号画像L’を拡大し、部分画像Bを切り出して補強信号Eを生成する。 Specifically, the image encoding unit 1 according to the first embodiment shown in FIG. 2 outputs the reduced image L as an object detection image to the object detection unit 2, and the object detection unit 2 outputs the reduced image L based on the reduced image L. The generated object area information D is input. On the other hand, the image encoding means 1 according to the modification of the first embodiment shown in FIG. 4 uses the object detection means 2 with the local decoded image L ′ obtained by decoding the code string λ of the reduced image L as the object detection image. The object area information D generated based on the local decoded image L ′ is input from the object detection means 2. Also, the image encoding means 1 according to the first embodiment shown in FIG. 2 enlarges the reduced image L, cuts out the partial image B i , and generates the reinforcement signal E i . On the other hand, the image encoding means 1 according to the modification of the first embodiment shown in FIG. 4 enlarges the local decoded image L ′, cuts out the partial image B i , and generates the reinforcement signal E i .

(局所画像復号手段)
図4において、局所画像復号手段19は、縮小画像符号化手段11から縮小画像Lである低解像度画像の符号列λを入力し、符号列λを復号して局所復号画像L’を生成し、画像拡大手段12に出力すると共に、オブジェクト検出用画像としてオブジェクト検出手段2に出力する。この局所画像復号手段19は、縮小画像符号化手段11と対になる復号手段である。
(Local image decoding means)
In FIG. 4, the local image decoding unit 19 receives the code sequence λ of the low-resolution image that is the reduced image L from the reduced image encoding unit 11, decodes the code sequence λ, and generates a local decoded image L ′. While outputting to the image enlarging means 12, it outputs to the object detection means 2 as an object detection image. The local image decoding unit 19 is a decoding unit that is paired with the reduced image encoding unit 11.

具体的には、局所画像復号手段19は、縮小画像符号化手段11がPCMの符号化方式を用いる場合、符号列λを画素毎の部分符号列に分解し、分解した部分符号列を逆量子化して輝度値に戻し、これをラスタスキャンの順序で局所復号画像L’の各画素位置にマッピングすることにより復号し、局所復号画像L’を生成する。   Specifically, when the reduced image encoding unit 11 uses the PCM encoding method, the local image decoding unit 19 decomposes the code sequence λ into partial code sequences for each pixel, and converts the decomposed partial code sequence into an inverse quantum. And return to the luminance value, and this is decoded by mapping it to each pixel position of the local decoded image L ′ in the order of raster scan, thereby generating a local decoded image L ′.

また、縮小画像符号化手段11が、符号化方式として、JPEG、JPEG 2000、MPEG−1、MPEG−2、MPEG−4、MPEG−4 AVC/H.264等の既存の画像符号化方式または動画像符号化方式を用いる場合、局所画像復号手段19は、その符号化方式と対になる復号方式を用いて、局所復号画像L’を生成する。   Further, the reduced image encoding means 11 uses JPEG, JPEG 2000, MPEG-1, MPEG-2, MPEG-4, MPEG-4 AVC / H. When using an existing image coding method or moving image coding method such as H.264, the local image decoding unit 19 generates a local decoded image L ′ using a decoding method that is paired with the coding method.

(実施例1の変形例の画像符号化手段により処理される画像例)
図5は、実施例1の変形例の画像符号化手段1により、空間方向に処理される画像例を説明する図である。縮小画像L、部分画像B,C、及び差分画像Eである補強信号Eは、実施例1と同様にして生成される。局所復号画像L’は、局所画像復号手段19により符号列λから生成され、オブジェクト領域情報Dは、オブジェクト検出手段2により局所復号画像L’であるオブジェクト検出用画像から生成され、拡大画像Kは、画像拡大手段12により局所復号画像L’から生成される。
(Example of image processed by image encoding means of modification of embodiment 1)
FIG. 5 is a diagram illustrating an example of an image processed in the spatial direction by the image encoding unit 1 according to a modification of the first embodiment. The reinforcement signal E i which is the reduced image L, the partial images B i and C i and the difference image E i is generated in the same manner as in the first embodiment. The local decoded image L ′ is generated from the code string λ by the local image decoding means 19, the object region information D is generated from the object detection image that is the local decoded image L ′ by the object detection means 2, and the enlarged image K is The image enlargement unit 12 generates the local decoded image L ′.

そして、低解像度画像の符号列λは、縮小画像符号化手段11により、縮小画像Lから生成され、高解像度画像を生成するための符号列εは、補強信号符号化手段16により、差分画像Eである補強信号Eから生成される。 The code sequence λ of the low resolution image is generated from the reduced image L by the reduced image encoding unit 11, and the code sequence ε for generating the high resolution image is generated by the reinforcement signal encoding unit 16 using the difference image E. a i is generated from the reinforcing signal E i.

以上のように、実施例1の変形例の画像符号化手段1を備えた画像符号化装置100によれば、画像符号化手段1の局所画像復号手段19が、縮小画像Lである低解像度画像の符号列λを復号して局所復号画像L’を生成し、オブジェクト検出手段2が、局所復号画像L’であるオブジェクト検出用画像に基づいて、高精細な高解像度画像を伝送する必要があると判断されるオブジェクト領域情報D(所定のオブジェクトを含む領域の情報)を生成し、画像符号化手段1の差分演算手段15が、オブジェクト領域情報Dの示す空間領域を高解像度化するための補強信号Eを、画像Hと、局所復号画像L’が拡大された拡大画像Kとの間の差分を演算することにより生成し、多重化手段17が、縮小画像符号化手段11により縮小画像Lから生成された、低解像度画像の符号列λと、補強信号符号化手段16により補強信号Eから生成された、高解像度化のための符号列εとを多重化し、符号列μを画像復号装置200へ出力するようにした。これにより、画像復号装置200は、画像符号化装置100に備えたオブジェクト検出手段2と同様の手段を用いることにより、低解像度画像の符号列λが復号された縮小画像Lからオブジェクト領域情報Dを生成することができる。また、オブジェクト領域情報Dの示す空間領域について、符号列εが復号された補強信号Eから、オブジェクトである被写体の滑らかな輪郭と詳細なテクスチャを再現した高精細な高解像度画像を生成することができる。 As described above, according to the image encoding device 100 including the image encoding unit 1 according to the modification of the first embodiment, the local image decoding unit 19 of the image encoding unit 1 is a low-resolution image that is a reduced image L. To generate a local decoded image L ′, and the object detection means 2 needs to transmit a high-definition high-resolution image based on the object detection image that is the local decoded image L ′. The object region information D (region information including a predetermined object) that is determined to be generated is generated, and the difference calculation unit 15 of the image encoding unit 1 enhances the spatial region indicated by the object region information D to have a high resolution. The signal E i is generated by calculating a difference between the image H and the enlarged image K obtained by enlarging the local decoded image L ′, and the multiplexing unit 17 uses the reduced image encoding unit 11 to reduce the reduced image L. Generated from The, the code sequence λ of the low-resolution image, which is generated from the reinforcing signal E i by the reinforcing signal encoding unit 16, multiplexes the code string ε for high resolution, the image decoding apparatus a code string mu 200 Output to. Thereby, the image decoding apparatus 200 uses the same means as the object detection means 2 included in the image encoding apparatus 100 to obtain the object region information D from the reduced image L obtained by decoding the low-resolution image code string λ. Can be generated. In addition, for the spatial region indicated by the object region information D, a high-definition high-resolution image that reproduces the smooth contour and detailed texture of the subject that is the object is generated from the reinforcement signal E i obtained by decoding the code sequence ε. Can do.

実施例1の変形例による画像符号化手段1は、局所画像復号手段19により生成される局所復号画像L’をオブジェクト検出用画像に用いることにより、オブジェクト領域情報Dを生成し、補強信号Eを生成して符号列εを生成する。一方、実施例1による画像符号化手段1は、画像縮小手段10により生成される縮小画像Lをオブジェクト検出用画像に用いることにより、オブジェクト領域情報Dを生成し、補強信号Eを生成して符号列εを生成する。この場合、画像復号装置200は、後述する縮小画像復号手段22により生成される縮小画像Lをオブジェクト検出用画像に用いることにより、オブジェクト領域情報Dを生成し、鮮鋭化画像Hを生成することになる。ここで、実施例1の画像縮小手段10により生成される縮小画像Lは、画像復号装置200の縮小画像復号手段22により生成される縮小画像Lに対応しているが、実施例1の変形例の局所画像復号手段19により生成される局所復号画像L’の方が実施例1の縮小画像Lよりも、画像復号装置200の縮小画像復号手段22により生成される縮小画像に近いものとなる。したがって、縮小画像符号化手段11が非可逆の符号化方式を用いた場合であっても、画像符号化装置100及び画像復号装置200は、同一のオブジェクト領域情報Dを生成することができる。つまり、縮小画像符号化手段11の符号化による画質劣化が生じたとしても、生成されるオブジェクト領域情報Dへの影響はなく、オブジェクト検出の破綻が起こることがない。また、補強信号Eは、局所復号画像L’を用いて生成された拡大画像Kにより生成されるから、縮小画像符号化手段11が非可逆の符号化方式を用いた場合であっても、符号化による画質劣化の歪みを考慮した信号となる。つまり、画像復号装置200は、このような補強信号Eを用いることにより、縮小画像符号化手段11の符号化によっていかなる画質劣化の歪みが生じたとしても、画像の高分解能化を実現することができる。すなわち、実施例1の変形例による画像符号化手段1は、画像復号装置200の復号処理を考慮して補強信号Eを生成し、符号列εを生成するから、画像復号装置200において、画像符号化装置100に入力された画像Hが一層反映された鮮鋭化画像Hを生成することができる。 The image encoding unit 1 according to the modification of the first embodiment generates the object region information D by using the local decoded image L ′ generated by the local image decoding unit 19 as the object detection image, and the reinforcement signal E i. Is generated to generate a code string ε. On the other hand, the image encoding unit 1 according to the first embodiment uses the reduced image L generated by the image reducing unit 10 as an object detection image, thereby generating object region information D and generating a reinforcement signal E i. A code string ε is generated. In this case, the image decoding apparatus 200 generates object region information D and generates a sharpened image H by using a reduced image L generated by a reduced image decoding unit 22 described later as an object detection image. Become. Here, the reduced image L generated by the image reducing unit 10 of the first embodiment corresponds to the reduced image L generated by the reduced image decoding unit 22 of the image decoding apparatus 200, but a modified example of the first embodiment. The local decoded image L ′ generated by the local image decoding means 19 is closer to the reduced image generated by the reduced image decoding means 22 of the image decoding apparatus 200 than the reduced image L of the first embodiment. Therefore, even when the reduced image encoding unit 11 uses an irreversible encoding method, the image encoding device 100 and the image decoding device 200 can generate the same object region information D. That is, even if image quality deterioration due to the encoding of the reduced image encoding unit 11 occurs, the generated object area information D is not affected, and the object detection does not fail. Further, since the reinforcement signal E i is generated by the enlarged image K generated using the local decoded image L ′, even if the reduced image encoding unit 11 uses an irreversible encoding method, The signal takes into account distortion of image quality degradation due to encoding. In other words, the image decoding apparatus 200 uses such a reinforcement signal E i to realize high image resolution regardless of any image quality degradation distortion caused by the encoding of the reduced image encoding unit 11. Can do. That is, the image encoding unit 1 according to the modification of the first embodiment generates the reinforcement signal E i in consideration of the decoding process of the image decoding apparatus 200 and generates the code string ε. A sharpened image H that further reflects the image H input to the encoding device 100 can be generated.

また、実施例1の変形例の画像符号化手段1を備えた画像符号化装置100によれば、実施例1と同様に、画像符号化手段1の補強信号符号化手段16が符号化する信号は、オブジェクト領域情報Dの示す空間領域についての補強信号Eのみで済み、補強信号Eは、差分演算手段15において部分画像B,Cの差分演算により生成されるから、符号量を削減することができる。また、画像符号化装置100から画像復号装置200へ出力される符号列は、オブジェクトの配置に関するオブジェクト領域情報Dを含まないから、符号量を削減することができる。このような符号量の削減によって、符号化の効率を向上させることができる。つまり、補強信号Eを用いて、オブジェクトである被写体を含む部分画像の空間分解能を、効率的に向上させることが可能となる。 In addition, according to the image encoding device 100 including the image encoding unit 1 of the modification of the first embodiment, the signal encoded by the reinforcement signal encoding unit 16 of the image encoding unit 1 as in the first embodiment. Is only the reinforcement signal E i for the spatial area indicated by the object area information D, and the reinforcement signal E i is generated by the difference calculation of the partial images B i and C i in the difference calculation means 15. Can be reduced. Further, since the code string output from the image encoding device 100 to the image decoding device 200 does not include the object area information D related to the arrangement of the objects, the code amount can be reduced. By reducing the amount of codes, it is possible to improve the encoding efficiency. That is, it is possible to efficiently improve the spatial resolution of the partial image including the subject that is the object by using the reinforcement signal E i .

尚、実施例1と同様に、画像符号化手段1に備えた画像拡大手段12と画像切り出し手段13とを一つの処理単位の構成要素とするようにしてもよい。具体的には、画像符号化手段1は、図4に示すように、画像拡大手段12及び画像切り出し手段13の代わりに、画像拡大切り出し手段18を備えるようにしてもよい。   As in the first embodiment, the image enlargement unit 12 and the image cutout unit 13 included in the image encoding unit 1 may be configured as components of one processing unit. Specifically, as shown in FIG. 4, the image encoding unit 1 may include an image enlargement and cutout unit 18 instead of the image enlargement unit 12 and the image cutout unit 13.

〔実施例2〕
次に、実施例2について説明する。実施例2では、画像符号化装置100は、画像の時間分解能を向上させるために、画像Hの縮小画像Lをオブジェクト検出用画像とし、オブジェクト検出用画像に基づいてオブジェクト領域情報Dを生成し、時間方向の画像処理を行う。図6は、実施例2の画像符号化手段1により、時間方向に処理される画像例を説明する図である。以下、図6を参照して説明する。
[Example 2]
Next, Example 2 will be described. In the second embodiment, the image encoding device 100 uses the reduced image L of the image H as the object detection image to improve the temporal resolution of the image, generates the object region information D based on the object detection image, Perform image processing in the time direction. FIG. 6 is a diagram illustrating an example of an image processed in the time direction by the image encoding unit 1 according to the second embodiment. Hereinafter, a description will be given with reference to FIG.

実施例2において、画像符号化装置100のオブジェクト検出手段2は、画像符号化手段1からオブジェクト検出用画像である縮小画像Lを入力し、この縮小画像Lから時間方向に局在する所定のオブジェクトを検出し、そのオブジェクトを含む領域群をオブジェクト領域情報Dとして画像符号化手段1に出力する。具体的には、オブジェクト検出手段2は、オブジェクト検出用画像である縮小画像L内において、オブジェクトが存在する時間区間を推定する。例えば、オブジェクト検出手段2は、縮小画像Lにおけるフレーム間(図6の例では2フレームの間隔を有する隣接フレーム間)の差分を計算し、差分の絶対値和d(t)が閾値を超えたフレームを検出し、オブジェクト領域情報Dを生成する。   In the second embodiment, the object detection unit 2 of the image encoding device 100 receives a reduced image L that is an object detection image from the image encoding unit 1, and a predetermined object localized in the time direction from the reduced image L. And the area group including the object is output to the image encoding means 1 as object area information D. Specifically, the object detection unit 2 estimates a time interval in which an object exists in the reduced image L that is an object detection image. For example, the object detection means 2 calculates the difference between frames in the reduced image L (between adjacent frames having an interval of 2 frames in the example of FIG. 6), and the absolute value sum d (t) of the differences exceeds the threshold value. A frame is detected and object area information D is generated.

まず、オブジェクト検出手段2は、以下の式により、縮小画像Lにおける隣接フレーム間の差分を計算し、差分の絶対値和d(t)を計算する。

Figure 0005308322
ここで、Δtは、縮小画像Lにおける隣接フレーム間の時間間隔である。 First, the object detection means 2 calculates the difference between adjacent frames in the reduced image L by the following equation, and calculates the absolute value sum d (t) of the difference.
Figure 0005308322
Here, Δt is a time interval between adjacent frames in the reduced image L.

そして、オブジェクト検出手段2は、以下の式に示すように、絶対値和d(t)が閾値θを超える時刻tの集合Tを求める。

Figure 0005308322
オブジェクト検出手段2は、集合T内における各時刻tについて、時間的に互いに隣接する時刻同士をグループ化し、0個以上(F個、Fは0以上の整数)の領域D(iは、0≦i≦F−1を満たす整数のインデックス)に分割する。この領域Dは、インデックスiに対して一定の規則により整順されるものとする。例えば、時刻により整順されるようにしてもよいし、領域D内のある代表時刻τにおける絶対値和d(t)により整順されるようにしてもよい。 Then, the object detection means 2 obtains a set T at time t when the absolute value sum d (t) exceeds the threshold value θ, as shown in the following equation.
Figure 0005308322
For each time t in the set T, the object detection means 2 groups time adjacent to each other in time, and 0 or more (F, F is an integer of 0 or more) region D i (i is 0). ≦ i ≦ F−1, which is an integer index). This region D i is ordered according to a certain rule with respect to the index i. For example, the order may be arranged according to the time, or the order may be arranged according to the sum of absolute values d (t i ) at a certain representative time τ i in the region D i .

図6の例では、絶対値和d(t)が閾値θを超える時刻tの集合Tは、以下の式で表される。

Figure 0005308322
また、領域Dは、時刻順に整順された場合、以下の式で表される。
Figure 0005308322
ここで、領域Dは、式(30)における各集合を時間方向に前後それぞれ一定時間拡張した集合、以下の式で表される。
Figure 0005308322
尚、一定時間拡張した結果、複数の領域Dが時間的に隣接するようになった場合には、これらを一つの集合に併合し、新たな領域Dとして扱うようにしてもよい。 In the example of FIG. 6, the set T at time t when the absolute value sum d (t) exceeds the threshold θ is expressed by the following equation.
Figure 0005308322
Further, the region D i is expressed by the following expression when arranged in order of time.
Figure 0005308322
Here, the region Di is a set obtained by extending each set in Expression (30) for a certain period of time in the time direction, and is expressed by the following expression.
Figure 0005308322
When a plurality of regions D i are temporally adjacent as a result of expansion for a certain time, they may be merged into one set and treated as a new region D i .

オブジェクト検出手段2は、このようにして求めた領域Dをオブジェクト領域情報Dとして画像符号化手段1に出力する。ここで、オブジェクト検出手段2により出力されるオブジェクト領域情報Dは、検出されたオブジェクトを含むフレームの時刻情報群であり、画像Hと同じ時間スケールの情報である。 Object detection means 2 outputs a region D i thus determined as the object area information D to the image encoding unit 1. Here, the object area information D output by the object detection means 2 is a time information group of a frame including the detected object, and is information on the same time scale as the image H.

実施例2において、画像符号化装置100の画像符号化手段1は、図2に示した画像符号化手段1と同じ手段を備えて構成される。画像縮小手段10は、画像Hを入力し、画像Hの時間分解能を減らすために、画像Hにおける時間方向のフレームを間引いて縮小し、時間分解能の低い縮小画像Lを生成して縮小画像符号化手段11及び画像拡大手段12に出力すると共に、オブジェクト検出用画像としてオブジェクト検出手段2に出力する。具体的には、画像縮小手段10は、画像Hに対し、一定時間間隔のフレームのみを標本化するサブサンプリングにより、時間分解能の低い縮小画像Lを生成する。尚、画像縮小手段10は、画像Hに対し、複数フレームの画像情報を平滑化し、縮小画像Lを生成するようにしてもよい。   In the second embodiment, the image encoding unit 1 of the image encoding apparatus 100 includes the same unit as the image encoding unit 1 shown in FIG. The image reduction means 10 receives the image H, and in order to reduce the temporal resolution of the image H, the temporal reduction frame in the image H is thinned out and reduced, and a reduced image L having a low temporal resolution is generated and reduced image coding is performed. In addition to outputting to the means 11 and the image enlarging means 12, it outputs to the object detection means 2 as an object detection image. Specifically, the image reduction means 10 generates a reduced image L with low time resolution by sub-sampling of the image H by sampling only frames at a fixed time interval. Note that the image reduction means 10 may smooth the image information of a plurality of frames with respect to the image H and generate the reduced image L.

図6の例では、画像縮小手段10は、画像Hを構成するフレーム(t=0,1,2,3,4,5,6,7,・・・)に対し、時間方向に奇数時刻のフレームを間引いて縮小し、偶数時刻のフレーム(t=0,2,4,6,・・・)により構成される時間分解能の低い縮小画像Lを生成する。   In the example of FIG. 6, the image reduction means 10 has an odd time in the time direction with respect to the frames (t = 0, 1, 2, 3, 4, 5, 6, 7,...) Constituting the image H. The frame is thinned out and reduced to generate a reduced image L having a low temporal resolution composed of even-numbered frames (t = 0, 2, 4, 6,...).

画像拡大手段12は、画像縮小手段10から縮小画像Lを入力し、縮小画像Lに対し時間方向に補間処理を行い、画像Hと同じ大きさ(画像Hと同じフレームレート)になるまでフレームを挿入して拡大し、拡大画像Kを生成して画像切り出し手段13に出力する。具体的には、画像拡大手段12は、縮小画像Lに対し、前時刻のフレームからの0次外挿により補間処理を行い、または、隣接する2フレームを用いた1次外挿等により補間処理を行い、拡大画像Kを生成する。0次外挿による補間処理は、以下の式により行われる。

Figure 0005308322
ここで、ΔTは、縮小画像Lが存在する時間間隔(サンプリング間隔)であり、ωは、縮小画像Lが存在する時刻の位相である。図6の例では、ΔT=2、ω=0である。 The image enlarging means 12 receives the reduced image L from the image reducing means 10, performs interpolation processing on the reduced image L in the time direction, and stores frames until the image H has the same size (the same frame rate as the image H). The image is inserted and enlarged, and an enlarged image K is generated and output to the image cutout unit 13. Specifically, the image enlarging means 12 performs an interpolation process on the reduced image L by zero-order extrapolation from the previous frame, or an interpolation process by primary extrapolation using two adjacent frames. To generate an enlarged image K. Interpolation processing by zero-order extrapolation is performed according to the following equation.
Figure 0005308322
Here, ΔT is the time interval (sampling interval) in which the reduced image L exists, and ω is the phase of the time at which the reduced image L exists. In the example of FIG. 6, ΔT = 2 and ω = 0.

図6の例では、画像拡大手段12は、縮小画像Lを構成する偶数時刻のフレーム(t=0,2,4,6,・・・)に対し、時間方向に奇数時刻のフレームを補間し、奇数及び偶数時刻のフレーム(t=0,1,2,3,4,5,6,7,・・・)により構成される拡大画像Kを生成する。   In the example of FIG. 6, the image enlarging means 12 interpolates the odd time frames in the time direction with respect to the even time frames (t = 0, 2, 4, 6,...) Constituting the reduced image L. , An enlarged image K composed of frames at odd and even times (t = 0, 1, 2, 3, 4, 5, 6, 7,...) Is generated.

画像切り出し手段13は、画像拡大手段12から拡大画像Kを入力し、オブジェクト検出手段2からオブジェクト領域情報Dを入力し、拡大画像Kを構成するフレームの中から、オブジェクト領域情報Dが示す時刻情報のフレームを切り出し画像Bとして切り出し、切り出し画像Bを差分演算手段15に出力する。オブジェクト領域情報Dは、複数の集合列(F個の集合列)であってもよく、Fは0以上の整数である。この場合、画像切り出し手段13により出力される切り出し画像Bは、オブジェクト領域情報Dに含まれる各領域D(i∈{0,・・・,F−1})に対応している。F=0のときには、切り出し画像Bは出力されない。つまり、画像切り出し手段13は、全てのインデックスi=0,・・・,F−1に対して切り出し画像Bを切り出し、切り出し画像の画像列(Bi=0,・・・,F−1を出力する。 The image cutout means 13 receives the enlarged image K from the image enlargement means 12, receives the object area information D from the object detection means 2, and the time information indicated by the object area information D from the frames constituting the enlarged image K. cut out of frame cutout as the image B i, and outputs the clipped image B i in the difference calculation unit 15. The object area information D may be a plurality of aggregate strings (F aggregate strings), and F is an integer of 0 or more. In this case, the cut-out image B i output by the image cut-out means 13 corresponds to each area D i (i∈ {0,..., F−1}) included in the object area information D. When F = 0, the cut-out image Bi is not output. That is, the image cutout unit 13, all of the index i = 0, · · ·, I cut out cut-out image B i relative to F-1, an image sequence of the clipped image (B i) i = 0, ···, F -1 is output.

図6の例では、画像切り出し手段13は、拡大画像Kを構成するフレーム(t=0,1,2,3,4,5,6,7,・・・)の中から、式(31)に示すオブジェクト領域情報D(D={3,4,5})のフレームを切り出し画像B(B)として切り出し、拡大画像Kにおけるt=3,4,5のフレームを、切り出し画像B(B)を構成するt=−1,0,+1のフレームとして生成する。 In the example of FIG. 6, the image cutout unit 13 calculates the expression (31) from the frames (t = 0, 1, 2, 3, 4, 5, 6, 7,...) Constituting the enlarged image K. The frame of the object area information D (D 0 = {3, 4, 5}) shown in FIG. 6 is cut out as a cutout image B i (B 0 ), and the frame of t = 3, 4, 5 in the enlarged image K is cut out. i (B 0 ) is generated as a frame of t = −1, 0, +1.

画像切り出し手段14は、画像Hを入力し、オブジェクト検出手段2からオブジェクト領域情報Dを入力し、画像Hを構成するフレームの中から、オブジェクト領域情報Dが示す時刻情報のフレームを切り出し画像Cとして切り出し、切り出し画像Cを差分演算手段15に出力する。画像切り出し手段14により出力される切り出し画像Cは、オブジェクト領域情報Dに含まれる各領域D(i∈{0,・・・,F−1})に対応している。F=0のときには、切り出し画像Cは出力されない。つまり、画像切り出し手段14は、全てのインデックスi=0,・・・,F−1に対して切り出し画像Cを切り出し、切り出し画像の画像列(Ci=0,・・・,F−1を出力する。 The image cutout unit 14 inputs the image H, inputs the object region information D from the object detection unit 2, and cuts out the frame of time information indicated by the object region information D from the frames constituting the image H, and outputs the image C i. And the cut-out image C i is output to the difference calculation means 15. The cut-out image C i output by the image cut-out means 14 corresponds to each area D i (i∈ {0,..., F−1}) included in the object area information D. When F = 0, the cut-out image C i is not output. That is, the image cutout unit 14 cuts out the cutout image C i for all indexes i = 0,..., F−1, and the cutout image sequence (C i ) i = 0,. -1 is output.

図6の例では、画像切り出し手段14は、画像Hを構成するフレーム(t=0,1,2,3,4,5,6,7,・・・)の中から、式(31)に示すオブジェクト領域情報D(D={3,4,5})のフレームを切り出し画像C(C)として切り出し、画像Hにおけるt=3,4,5のフレームを、切り出し画像C(C)を構成するt=−1,0,+1のフレームとして生成する。 In the example of FIG. 6, the image cutout unit 14 calculates the expression (31) from the frames (t = 0, 1, 2, 3, 4, 5, 6, 7,...) That form the image H. A frame of the object area information D (D 0 = {3, 4, 5}) to be shown is cut out as a cut-out image C i (C 0 ), and a frame of t = 3, 4, 5 in the image H is cut out as a cut-out image C i ( C 0 ) is generated as a frame of t = −1, 0, +1.

差分演算手段15は、画像切り出し手段13から切り出し画像Bを入力し、画像切り出し手段14から切り出し画像Cを入力し、切り出し画像Bと切り出し画像Cとの間の差分画像Eを演算し、差分画像Eを補強信号Eとして補強信号符号化手段16に出力する。例えば、差分演算手段15は、切り出し画像Bと切り出し画像Cとの間で通常の引き算を行い、差分画像Eを生成する。または、差分演算手段15は、切り出し画像Bと切り出し画像Cとの間で、画素値の階調数を法とする差分を演算し、差分画像Eを生成する。ここで、差分演算手段15は、全てのインデックスi=0,・・・,F−1に対して差分画像Eを演算し、差分画像の画像列(Ei=0,・・・,F−1を出力する。F=0の場合、差分演算手段15は、画像切り出し手段13,14から切り出し画像B,Cを入力しないから、差分画像Eを出力しない。 The difference calculation means 15 inputs the cut-out image B i from the image cut-out means 13, inputs the cut-out image C i from the image cut-out means 14, and calculates the difference image E i between the cut-out image B i and the cut-out image C i. The difference image E i is calculated and outputted to the reinforcement signal encoding means 16 as the reinforcement signal E i . For example, the difference calculation unit 15 performs the normal subtraction between the cut image B i and the clipped image C i, to generate a difference image E i. Or, difference calculation means 15, with the cut image B i and the clipped image C i, and calculates the difference modulo the number of gradations of the pixel value to generate a difference image E i. Here, the difference calculation means 15 calculates the difference image E i for all the indexes i = 0,..., F−1, and the difference image image sequence (E i ) i = 0,. , F-1 is output. In the case of F = 0, the difference calculation means 15 does not output the difference image E i because it does not input the cut images B i and C i from the image cut-out means 13 and 14.

図6の例では、差分演算手段15は、t=−1,0,+1のフレームにより構成される切り出し画像Bと、t=−1,0,+1のフレームにより構成される切り出し画像Cとにより、t=−1,0,+1のフレームにより構成される差分画像Eを生成する。 In the example of FIG. 6, the difference calculation unit 15 includes a cutout image B i composed of t = −1, 0, +1 frames and a cutout image C i composed of t = −1, 0, +1 frames. Thus, a difference image E i composed of frames of t = −1, 0, +1 is generated.

実施例2の縮小画像符号化手段11、補強信号符号化手段16及び多重化手段17は、図2に示した実施例1による画像符号化手段1に備えた各手段と同様の処理を行うから、ここでは説明を省略する。   The reduced image encoding unit 11, the reinforcement signal encoding unit 16, and the multiplexing unit 17 of the second embodiment perform the same processing as each unit included in the image encoding unit 1 according to the first embodiment shown in FIG. The description is omitted here.

以上のように、実施例2の画像符号化手段1を備えた画像符号化装置100によれば、オブジェクト検出手段2が、時間分解能の低い縮小画像Lであるオブジェクト検出用画像に基づいて、高精細な時間分解能の高い画像を伝送する必要があると判断されるオブジェクト領域情報D(所定のオブジェクトを含む時間領域の情報)を生成し、画像符号化手段1の差分演算手段15が、オブジェクト領域情報Dの示す時間領域を高分解能化するための補強信号Eを、画像Hと、縮小画像Lが拡大された拡大画像Kとの間の差分を演算することにより生成し、多重化手段17が、縮小画像符号化手段11により縮小画像Lから生成された、時間分解能の低い画像の符号列λと、補強信号符号化手段16により補強信号Eから生成された、時間分解能の高い画像を生成するための符号列εとを多重化し、符号列μを画像復号装置200へ出力するようにした。これにより、画像復号装置200は、画像符号化装置100に備えたオブジェクト検出手段2と同様の手段を用いることにより、時間分解能の低い画像の符号列λが復号された縮小画像Lからオブジェクト領域情報Dを生成することができる。また、オブジェクト領域情報Dが示す時間領域について、符号列εが復号された補強信号Eから、オブジェクトである被写体の滑らかな動きを再現した、高精細な時間分解能の高い画像を生成することができる。 As described above, according to the image encoding device 100 including the image encoding means 1 of the second embodiment, the object detection means 2 is based on the object detection image that is the reduced image L with low time resolution. Object region information D (information on a time region including a predetermined object) that is determined to require transmission of a fine image with high time resolution is generated, and the difference calculation unit 15 of the image encoding unit 1 The reinforcing signal E i for increasing the resolution of the time domain indicated by the information D is generated by calculating the difference between the image H and the enlarged image K in which the reduced image L is enlarged, and the multiplexing means 17 Is generated from the reduced image L by the reduced image encoding means 11 and the code sequence λ of the image having a low time resolution and the amount of time generated from the reinforcement signal E i by the reinforcement signal encoding means 16. The code sequence ε for generating a high-resolution image is multiplexed and the code sequence μ is output to the image decoding apparatus 200. As a result, the image decoding apparatus 200 uses the same means as the object detection means 2 included in the image encoding apparatus 100, so that the object region information is obtained from the reduced image L obtained by decoding the code sequence λ of the image with low time resolution. D can be generated. Further, for the time domain indicated by the object area information D, it is possible to generate a high-definition and high-resolution image that reproduces the smooth movement of the subject that is the object from the reinforcement signal E i obtained by decoding the code sequence ε. it can.

また、実施例2の画像符号化手段1を備えた画像符号化装置100によれば、実施例1と同様に、画像符号化手段1の補強信号符号化手段16が符号化する信号は、オブジェクト領域情報Dの示す時間領域についての補強信号Eのみで済み、補強信号Eは、差分演算手段15において切り出し画像B,Cの差分演算により生成されるから、符号量を削減することができる。また、画像符号化装置100から画像復号装置200へ出力される符号列は、オブジェクトの配置に関するオブジェクト領域情報Dを含まないから、符号量を削減することができる。このような符号量の削減によって、符号化の効率を向上させることができる。つまり、補強信号Eを用いて、オブジェクトである被写体を含む画像の時間分解能を、効率的に向上させることが可能となる。 Further, according to the image encoding device 100 including the image encoding unit 1 of the second embodiment, the signal encoded by the reinforcement signal encoding unit 16 of the image encoding unit 1 is an object as in the first embodiment. Since only the reinforcement signal E i for the time domain indicated by the area information D is necessary, and the reinforcement signal E i is generated by the difference calculation of the clipped images B i and C i in the difference calculation means 15, the code amount is reduced. Can do. Further, since the code string output from the image encoding device 100 to the image decoding device 200 does not include the object area information D related to the arrangement of the objects, the code amount can be reduced. By reducing the amount of codes, it is possible to improve the encoding efficiency. That is, it is possible to efficiently improve the time resolution of an image including a subject that is an object using the reinforcement signal E i .

尚、実施例1と同様に、画像符号化手段1に備えた画像拡大手段12と画像切り出し手段13とを一つの処理単位の構成要素とするようにしてもよい。具体的には、画像符号化手段1は、図2に示すように、画像拡大手段12及び画像切り出し手段13の代わりに、画像拡大切り出し手段18を備える。この場合、画像拡大切り出し手段18は、画像縮小手段10から縮小画像Lを入力し、オブジェクト検出手段2からオブジェクト領域情報Dを入力し、オブジェクト領域情報Dに含まれる各領域D(i=0,・・・,F−1)について、画像縮小手段10における画像Hから所定のフレームを間引いて縮小画像Lを生成する際の縮小比を考慮し、同じ縮小比にて各領域Dのフレームを間引いて縮小する。そして、画像拡大切り出し手段18は、縮小した領域Dの時刻情報に基づいて、縮小画像Lから切り出し画像を切り出し、画像拡大手段12においてフレームを挿入して画像を拡大する際の拡大比を考慮し、同じ拡大比にて切り出し画像にフレームを挿入して画像を拡大し、切り出し画像Bを生成する。これにより、画像符号化手段1は、拡大画像Kを生成することなく、切り出し画像のみを拡大するようにしたから、演算量及びメモリ量が少なくて済み、補強信号Eを用いて、オブジェクトである被写体を含む画像の時間分解能を、一層効率的に向上させることが可能となる。 As in the first embodiment, the image enlargement unit 12 and the image cutout unit 13 included in the image encoding unit 1 may be configured as components of one processing unit. Specifically, as shown in FIG. 2, the image encoding unit 1 includes an image enlargement and cutout unit 18 instead of the image enlargement unit 12 and the image cutout unit 13. In this case, the image enlarging / cutting unit 18 inputs the reduced image L from the image reducing unit 10, inputs the object area information D from the object detecting unit 2, and each area D i (i = 0) included in the object area information D. ,..., F-1), considering the reduction ratio when the reduced image L is generated by thinning a predetermined frame from the image H in the image reducing means 10, and the frames of the respective regions D i with the same reduction ratio. Decrease the size. Then, the image enlargement / cutout unit 18 cuts out a cutout image from the reduced image L based on the time information of the reduced area D i , and considers an enlargement ratio when the image enlargement unit 12 inserts a frame to enlarge the image. Then, the frame is inserted into the cutout image at the same enlargement ratio to enlarge the image, and the cutout image Bi is generated. Thereby, the image encoding means 1 does not generate the enlarged image K, but enlarges only the clipped image. Therefore, the calculation amount and the memory amount can be reduced, and the reinforcement signal E i can be used for the object. It is possible to improve the time resolution of an image including a certain subject more efficiently.

〔実施例2の変形例〕
次に、実施例2の変形例について説明する。実施例2の変形例では、画像符号化装置100は、画像の時間分解能を向上させるために、画像Hの縮小画像Lの符号列を復号して局所復号画像L’を生成し、局所復号画像L’をオブジェクト検出用画像とし、オブジェクト検出用画像に基づいてオブジェクト領域情報Dを生成し、時間方向の画像処理を行う。図7は、実施例2の変形例の画像符号化手段1により、時間方向に処理される画像例を説明する図である。以下、図7を参照して説明する。
[Modification of Example 2]
Next, a modification of the second embodiment will be described. In the modification of the second embodiment, the image encoding device 100 generates a locally decoded image L ′ by decoding the code sequence of the reduced image L of the image H in order to improve the temporal resolution of the image, and generates the locally decoded image. L ′ is an object detection image, object area information D is generated based on the object detection image, and image processing in the time direction is performed. FIG. 7 is a diagram illustrating an example of an image processed in the time direction by the image encoding unit 1 according to a modification of the second embodiment. Hereinafter, a description will be given with reference to FIG.

実施例2の変形例において、画像符号化装置100のオブジェクト検出手段2は、オブジェクト検出用画像として、縮小画像Lの代わりに局所復号画像L’を入力し、実施例2のオブジェクト検出手段2と同様の処理を行う。すなわち、オブジェクト検出手段2は、画像符号化手段1からオブジェクト検出用画像である局所復号画像L’を入力し、この局所復号画像L’から時間方向に局在する所定のオブジェクトを検出し、そのオブジェクトを含む領域群をオブジェクト領域情報Dとして画像符号化手段1の画像切り出し手段13,14に出力する。   In the modification of the second embodiment, the object detection unit 2 of the image encoding device 100 inputs the local decoded image L ′ instead of the reduced image L as the object detection image, and the object detection unit 2 of the second embodiment Similar processing is performed. That is, the object detection means 2 receives the local decoded image L ′, which is an object detection image, from the image encoding means 1, detects a predetermined object localized in the time direction from the local decoded image L ′, and The area group including the object is output as object area information D to the image clipping means 13 and 14 of the image encoding means 1.

実施例2の変形例において、画像符号化装置100の画像符号化手段1は、図4に示した画像符号化手段1と同じ手段を備えて構成される。実施例2による画像符号化手段1と、実施例2の変形例による画像符号化手段1との間の構成上の同一点及び相違点は、実施例1と実施例1の変形例との間で比較説明したものと同様である。   In the modification of the second embodiment, the image encoding unit 1 of the image encoding device 100 includes the same unit as the image encoding unit 1 shown in FIG. The same and different points in configuration between the image encoding unit 1 according to the second embodiment and the image encoding unit 1 according to the modification of the second embodiment are between the first embodiment and the modification of the first embodiment. This is the same as that described in the comparison.

実施例2の変形例において、局所画像復号手段19は、縮小画像符号化手段11から時間分解能の低い縮小画像Lの符号列λを入力し、符号列λを復号して局所復号画像L’を生成し、画像拡大手段12に出力すると共に、オブジェクト検出用画像としてオブジェクト検出手段2に出力する。画像拡大手段12は、局所画像復号手段19から局所復号画像L’を入力し、局所復号画像L’に対し時間方向に補間処理を行い、画像Hと同じ大きさ(画像Hと同じフレームレート)になるまでフレームを挿入して拡大し、拡大画像Kを生成して画像切り出し手段13に出力する。   In the modification of the second embodiment, the local image decoding unit 19 receives the code sequence λ of the reduced image L with low temporal resolution from the reduced image encoding unit 11, decodes the code sequence λ, and generates the local decoded image L ′. The generated image is output to the image enlarging unit 12 and is output to the object detecting unit 2 as an object detection image. The image enlarging unit 12 receives the local decoded image L ′ from the local image decoding unit 19, performs interpolation processing on the local decoded image L ′ in the time direction, and has the same size as the image H (the same frame rate as the image H). A frame is inserted and enlarged until the image becomes K, and an enlarged image K is generated and output to the image cutout means 13.

以上のように、実施例2の変形例の画像符号化手段1を備えた画像符号化装置100によれば、画像符号化手段1の局所画像復号手段19が、時間分解能の低い縮小画像Lの符号列λを復号して局所復号画像L’を生成し、オブジェクト検出手段2が、局所復号画像L’であるオブジェクト検出用画像に基づいて、高精細な時間分解能の高い画像を伝送する必要があると判断されるオブジェクト領域情報D(所定のオブジェクトを含む時間領域の情報)を生成し、画像符号化手段1の差分演算手段15が、オブジェクト領域情報Dの示す時間領域のフレームにおける補強信号Eを、画像Hと、局所復号画像L’が拡大された拡大画像Kとの間の差分を演算することにより生成し、多重化手段17が、縮小画像符号化手段11により縮小画像Lから生成された時間分解能の低い画像の符号列λと、補強信号符号化手段16により補強信号Eから生成された、時間分解能の高い画像を生成するための符号列εとを多重化し、符号列μを画像復号装置200へ出力するようにした。これにより、画像復号装置200は、画像符号化装置100に備えたオブジェクト検出手段2と同様の手段を用いることにより、時間分解能の低い画像の符号列λが復号された縮小画像Lからオブジェクト領域情報Dを生成することができる。また、オブジェクト領域情報Dが示す時間領域について、符号列εが復号された補強信号Eから、オブジェクトである被写体の滑らかな動きを再現した、高精細な時間分解能の高い画像を生成することができる。 As described above, according to the image encoding device 100 including the image encoding unit 1 according to the modification of the second embodiment, the local image decoding unit 19 of the image encoding unit 1 uses the reduced image L with low time resolution. The code string λ is decoded to generate a local decoded image L ′, and the object detection unit 2 needs to transmit a high-definition image with high time resolution based on the object detection image that is the local decoded image L ′. Object region information D determined to be present (time region information including a predetermined object) is generated, and the difference calculation unit 15 of the image encoding unit 1 reinforces the reinforcement signal E in the frame of the time region indicated by the object region information D. the i, and the image H, generated by calculating the difference between the enlarged image K which local decoded image L 'is enlarged, the multiplexing means 17, or the reduced image L by the reduced image coding unit 11 And code string generated time resolution of a low image lambda, generated from helper signal E i by the reinforcing signal encoding unit 16, and a code string ε for generating an image with high time resolution and multiplexed code string μ is output to the image decoding apparatus 200. As a result, the image decoding apparatus 200 uses the same means as the object detection means 2 included in the image encoding apparatus 100, so that the object region information is obtained from the reduced image L obtained by decoding the code sequence λ of the image with low time resolution. D can be generated. Further, for the time domain indicated by the object area information D, it is possible to generate a high-definition and high-resolution image that reproduces the smooth movement of the subject that is the object from the reinforcement signal E i obtained by decoding the code sequence ε. it can.

実施例2の変形例による画像符号化手段1は、局所画像復号手段19により生成される局所復号画像L’をオブジェクト検出用画像に用いることにより、オブジェクト領域情報Dを生成し、補強信号Eを生成して符号列εを生成する。一方、実施例2による画像符号化手段1は、画像縮小手段10により生成される縮小画像Lをオブジェクト検出用画像に用いることにより、オブジェクト領域情報Dを生成し、補強信号Eを生成して符号列εを生成する。この場合、画像復号装置200は、後述する縮小画像復号手段22により生成される縮小画像Lをオブジェクト検出用画像に用いることにより、オブジェクト領域情報Dを生成し、鮮鋭化画像Hを生成することになる。ここで、実施例2の画像縮小手段10により生成される縮小画像Lは、画像復号装置200の縮小画像復号手段22により生成される縮小画像Lに対応しているが、実施例2の変形例の局所画像復号手段19により生成される局所復号画像L’の方が実施例2の縮小画像Lよりも、画像復号装置200の縮小画像復号手段22により生成される縮小画像Lに近いものとなる。したがって、縮小画像符号化手段11が非可逆の符号化方式を用いた場合であっても、画像符号化装置100及び画像復号装置200は、同一のオブジェクト領域情報Dを生成することができる。つまり、縮小画像符号化手段11の符号化による画質劣化が生じたとしても、オブジェクト検出の破綻が起こることがない。また、補強信号Eは、局所復号画像L’を用いて生成された拡大画像Kにより生成されるから、縮小画像符号化手段11が非可逆の符号化方式を用いた場合であっても、符号化による画質劣化の歪みを考慮した信号となる。つまり、画像復号装置200は、このような補強信号Eを用いることにより、画像の高分解能化を実現することができる。すなわち、実施例2の変形例による画像符号化手段1は、画像復号装置200の復号処理を考慮して補強信号Eを生成し、符号列εを生成するから、画像復号装置200において、画像符号化装置100に入力された画像Hが一層反映された鮮鋭化画像Hを生成することができる。 The image encoding unit 1 according to the modification of the second embodiment generates the object region information D by using the local decoded image L ′ generated by the local image decoding unit 19 as the object detection image, and the reinforcement signal E i. Is generated to generate a code string ε. On the other hand, the image encoding unit 1 according to the second embodiment uses the reduced image L generated by the image reducing unit 10 as an object detection image, thereby generating object region information D and generating a reinforcement signal E i. A code string ε is generated. In this case, the image decoding apparatus 200 generates object region information D and generates a sharpened image H by using a reduced image L generated by a reduced image decoding unit 22 described later as an object detection image. Become. Here, the reduced image L generated by the image reducing unit 10 of the second embodiment corresponds to the reduced image L generated by the reduced image decoding unit 22 of the image decoding apparatus 200, but a modified example of the second embodiment. The local decoded image L ′ generated by the local image decoding means 19 is closer to the reduced image L generated by the reduced image decoding means 22 of the image decoding device 200 than the reduced image L of the second embodiment. . Therefore, even when the reduced image encoding unit 11 uses an irreversible encoding method, the image encoding device 100 and the image decoding device 200 can generate the same object region information D. That is, even if the image quality is deteriorated due to the encoding of the reduced image encoding unit 11, the object detection does not fail. Further, since the reinforcement signal E i is generated by the enlarged image K generated using the local decoded image L ′, even if the reduced image encoding unit 11 uses an irreversible encoding method, The signal takes into account distortion of image quality degradation due to encoding. That is, the image decoding apparatus 200 can achieve high resolution of the image by using such a reinforcement signal E i . That is, the image encoding means 1 according to the modification of the second embodiment generates the reinforcement signal E i in consideration of the decoding process of the image decoding apparatus 200 and generates the code string ε. A sharpened image H that further reflects the image H input to the encoding device 100 can be generated.

また、実施例2の変形例の画像符号化手段1を備えた画像符号化装置100によれば、実施例2と同様に、画像符号化手段1の補強信号符号化手段16が符号化する信号は、オブジェクト領域情報Dの示す時間領域についての補強信号Eのみで済み、補強信号Eは、差分演算手段15において部分画像B,Cの差分演算により生成されるから、補強信号Eから生成される符号列εの符号量を削減することができる。また、画像符号化装置100から画像復号装置200へ出力される符号列は、オブジェクトの配置に関するオブジェクト領域情報Dを含まないから、符号量を削減することができる。このような符号量の削減によって、符号化の効率を向上させることができる。つまり、補強信号Eを用いて、オブジェクトである被写体を含む画像の時間分解能を、効率的に向上させることが可能となる。 Further, according to the image encoding device 100 including the image encoding means 1 of the modification of the second embodiment, the signal encoded by the reinforcement signal encoding means 16 of the image encoding means 1 as in the second embodiment. Is only the reinforcement signal E i for the time domain indicated by the object area information D, and the reinforcement signal E i is generated by the difference calculation of the partial images B i and C i in the difference calculation means 15. The code amount of the code string ε generated from i can be reduced. Further, since the code string output from the image encoding device 100 to the image decoding device 200 does not include the object area information D related to the arrangement of the objects, the code amount can be reduced. By reducing the amount of codes, it is possible to improve the encoding efficiency. That is, it is possible to efficiently improve the time resolution of an image including a subject that is an object using the reinforcement signal E i .

尚、実施例2と同様に、画像符号化手段1に備えた画像拡大手段12と画像切り出し手段13とを一つの処理単位の構成要素とするようにしてもよい。具体的には、画像符号化手段1は、図4に示すように、画像拡大手段12及び画像切り出し手段13の代わりに、画像拡大切り出し手段18を備えるようにしてもよい。   As in the second embodiment, the image enlargement unit 12 and the image cutout unit 13 included in the image encoding unit 1 may be configured as components of one processing unit. Specifically, as shown in FIG. 4, the image encoding unit 1 may include an image enlargement and cutout unit 18 instead of the image enlargement unit 12 and the image cutout unit 13.

以上、本発明の実施形態による画像符号化装置100について、実施例1、実施例1の変形例、実施例2及び実施例2の変形例に分けて説明したが、他の実施例として、実施例1または実施例1の変形例と、実施例2または実施例2の変形例とを組み合わせるようにしてもよい。すなわち、他の実施例では、画像の空間分解能及び時間分解能を向上させるために、空間方向及び時間方向の画像処理を行う。具体的には、オブジェクト検出手段2は、縮小画像Lまたは局所復号画像L’に基づいて、オブジェクトを含む空間領域及び時間領域のオブジェクト領域情報Dを生成する。また、画像符号化手段1の画像縮小手段10は、空間分解能及び時間分解能の低い縮小画像Lを生成し、画像切り出し手段13,14は、オブジェクト領域情報Dの示す時間領域のフレームについて、そのフレームに対してオブジェクト領域情報Dの示す空間領域の画像を切り出し画像B,Cとして生成する。そして、補強信号符号化手段16は、差分演算手段15からオブジェクトを含む空間領域及び時間領域の差分画像E(補強信号E)を入力し、符号化を行い、オブジェクトを含む空間領域及び時間領域の補強信号Eの符号列εを生成する。これにより、画像復号装置200は、高精細な空間分解能及び時間分解能の高い画像を生成することができる。また、補強信号Eを用いて、オブジェクトである被写体を含む画像の空間分解能及び時間分解能を、効率的に向上させることが可能となる。 As described above, the image encoding apparatus 100 according to the embodiment of the present invention has been described separately in the first embodiment, the modified example of the first example, the modified example of the second example, and the modified example of the second example. You may make it combine the modification of Example 1 or Example 1, and the modification of Example 2 or Example 2. FIG. That is, in another embodiment, image processing in the spatial direction and the temporal direction is performed in order to improve the spatial resolution and temporal resolution of the image. Specifically, the object detection means 2 generates object region information D of a spatial region and a time region including the object based on the reduced image L or the local decoded image L ′. Further, the image reduction means 10 of the image encoding means 1 generates a reduced image L with low spatial resolution and temporal resolution, and the image cutout means 13, 14 are the frames of the time domain indicated by the object area information D. In contrast, the image of the spatial area indicated by the object area information D is generated as cut-out images B i and C i . Then, the reinforcement signal encoding unit 16 inputs the difference image E i (reinforcement signal E i ) of the spatial region and the time region including the object from the difference calculation unit 15, performs encoding, and encodes the spatial region and the time including the object. A code sequence ε of the region reinforcement signal E i is generated. Thereby, the image decoding apparatus 200 can generate a high-definition spatial resolution and a high temporal resolution image. In addition, it is possible to efficiently improve the spatial resolution and temporal resolution of an image including a subject that is an object by using the reinforcement signal E i .

〔画像復号装置〕
次に、本発明の実施形態による画像復号装置について説明する。図8は、画像復号装置の構成を示すブロック図である。この画像復号装置200は、画像復号手段3及びオブジェクト検出手段4を備えて構成される。画像復号装置200は、図1に示した画像符号化装置100により出力された符号列μを入力し、画像復号処理及びオブジェクト検出処理により低分解能画像及び高精細な鮮鋭化画像Hを生成し、これらの画像を出力する。
[Image decoding device]
Next, an image decoding apparatus according to an embodiment of the present invention will be described. FIG. 8 is a block diagram illustrating a configuration of the image decoding apparatus. The image decoding apparatus 200 includes an image decoding unit 3 and an object detection unit 4. The image decoding apparatus 200 receives the code string μ output from the image encoding apparatus 100 shown in FIG. 1, generates a low-resolution image and a high-definition sharpened image H by image decoding processing and object detection processing, These images are output.

画像復号手段3は、画像符号化装置100から符号列μを入力し、オブジェクト検出手段4からオブジェクト領域情報Dを入力し、符号列μとオブジェクト領域情報Dとに基づいて画像復号を行い、低分解能画像及び鮮鋭化画像Hを生成して出力する。また、画像復号手段3は、符号列μを復号し、オブジェクト検出手段4がオブジェクトを検出するために用いる画像(オブジェクト検出用画像)を生成し、オブジェクト検出用画像をオブジェクト検出手段4に出力する。尚、画像復号手段3は、低分解能画像を出力しなくてもよい。画像符号化装置100から入力する符号列μは、縮小画像Lが符号化された符号列λと、補強信号Eが符号化された符号列εとが多重化されている。 The image decoding unit 3 receives the code string μ from the image encoding device 100, receives the object area information D from the object detection unit 4, performs image decoding based on the code string μ and the object area information D, A resolution image and a sharpened image H are generated and output. The image decoding unit 3 decodes the code string μ, generates an image (object detection image) used by the object detection unit 4 to detect the object, and outputs the object detection image to the object detection unit 4. . The image decoding unit 3 may not output a low resolution image. The code sequence μ input from the image encoding device 100 is a multiplexed code sequence λ in which the reduced image L is encoded and a code sequence ε in which the reinforcement signal E i is encoded.

オブジェクト検出手段4は、画像復号手段3からオブジェクト検出用画像を入力し、オブジェクト検出用画像からオブジェクトを検出し、高精細な画像を伝送する必要があると判断される空間領域または時間領域(オブジェクトを含む領域)をオブジェクト領域情報Dとして生成し、画像復号手段3に出力する。尚、オブジェクト検出手段4は、図1に示した画像符号化装置100のオブジェクト検出手段2と同様の処理を行うから、ここでは詳細な説明を省略する。   The object detection unit 4 receives the object detection image from the image decoding unit 3, detects the object from the object detection image, and determines whether it is necessary to transmit a high-definition image. Are generated as the object area information D and output to the image decoding means 3. The object detection unit 4 performs the same processing as the object detection unit 2 of the image encoding device 100 shown in FIG.

以下、図1に示した画像符号化装置100と同様に、画像はモノクロ画像の場合を例にとって説明するが、カラー画像等の場合には、各色成分を要素に持つ色ベクトルとして各画素の画素値を取り扱うこととする。したがって、画像はモノクロ画像に限らず、カラー画像等にも適用がある。   Hereinafter, as in the case of the image encoding device 100 shown in FIG. 1, the case where the image is a monochrome image will be described as an example. The value will be handled. Therefore, the image is not limited to a monochrome image but can be applied to a color image or the like.

以下、図8に示した画像復号装置200の画像復号手段3について、前述した実施例1及び実施例1の変形例による画像符号化手段1に対応して、空間方向の画像処理を行う画像復号手段3と、前述した実施例2及び実施例2の変形例による画像符号化手段1に対応して、時間方向の画像処理を行う画像復号手段3とに分けて説明する。   Hereinafter, with respect to the image decoding unit 3 of the image decoding apparatus 200 shown in FIG. 8, image decoding for performing image processing in the spatial direction corresponding to the image encoding unit 1 according to the first embodiment and the modified example of the first embodiment described above. The description will be given separately for the means 3 and the image decoding means 3 for performing the image processing in the time direction corresponding to the image encoding means 1 according to the second embodiment and the modification of the second embodiment.

〔実施例1及び実施例1の変形例に対応する画像復号手段〕
まず、前述した実施例1及び実施例1の変形例による画像符号化手段1に対応して、空間方向の画像処理を行う画像復号手段3について説明する。画像復号手段3は、符号列μを復号して得た縮小画像Lをオブジェクト検出用画像とし、オブジェクト検出手段4にオブジェクト領域情報Dを生成させ、空間方向の画像処理を行い、符号列μを復号して得た補強信号Eを用いて、オブジェクト領域情報Dの示す空間領域の分解能を向上させた鮮鋭化画像Hを生成する。
[Image Decoding Unit Corresponding to Embodiment 1 and Modification of Embodiment 1]
First, an image decoding unit 3 that performs image processing in the spatial direction corresponding to the image encoding unit 1 according to the first embodiment and the modification of the first embodiment will be described. The image decoding means 3 uses the reduced image L obtained by decoding the code string μ as an object detection image, causes the object detection means 4 to generate object region information D, performs image processing in the spatial direction, and obtains the code string μ. Using the reinforcement signal E i obtained by decoding, a sharpened image H in which the resolution of the spatial area indicated by the object area information D is improved is generated.

図9は、画像復号手段3の構成を示すブロック図である。この画像復号手段3は、逆多重化手段20、補強信号復号手段21、縮小画像復号手段22、配置手段23、画像拡大手段24及び加算手段25を備えて構成される。以下、画像の水平位置x及び垂直位置yの座標を(x,y)とし、座標(x,y)における、画像Iの画素値をI(x,y)とする。   FIG. 9 is a block diagram showing the configuration of the image decoding means 3. The image decoding unit 3 includes a demultiplexing unit 20, a reinforcement signal decoding unit 21, a reduced image decoding unit 22, an arrangement unit 23, an image enlargement unit 24, and an addition unit 25. Hereinafter, the coordinates of the horizontal position x and the vertical position y of the image are (x, y), and the pixel value of the image I at the coordinates (x, y) is I (x, y).

(逆多重化手段)
逆多重化手段20は、画像符号化装置100から符号列μを入力し、予め設定された順序で、縮小画像Lが符号化された符号列λと、補強信号Eが符号化された符号列εとに分離し、符号列λを縮小画像復号手段22に出力し、符号列εを補強信号復号手段21に出力する。
(Demultiplexing means)
The demultiplexing means 20 receives the code string μ from the image coding apparatus 100, and in the preset order, the code string λ obtained by coding the reduced image L and the code obtained by coding the reinforcement signal E i. The code sequence λ is output to the reduced image decoding unit 22, and the code sequence ε is output to the reinforcement signal decoding unit 21.

尚、逆多重化手段20は、符号列μにおけるヘッダ情報またはフッタ情報等の付加的な情報に、符号列λ及び符号列εの位置が記述されている場合、その付加的な情報に基づいて、符号列μを符号列λ及び符号列εに分離する。   In addition, when the positions of the code sequence λ and the code sequence ε are described in additional information such as header information or footer information in the code sequence μ, the demultiplexing unit 20 uses the additional information based on the additional information. , The code string μ is separated into a code string λ and a code string ε.

(補強信号復号手段)
補強信号復号手段21は、逆多重化手段20から、補強信号Eが符号化された符号列εを入力し、符号列εを復号して補強信号Eを生成し、配置手段23に出力する。この補強信号復号手段21は、符号列εを生成した、画像符号化装置100の画像符号化手段1における補強信号符号化手段16と対になる復号手段である。
(Reinforcing signal decoding means)
The reinforcement signal decoding unit 21 receives the code sequence ε obtained by encoding the reinforcement signal E i from the demultiplexing unit 20, decodes the code sequence ε, generates the reinforcement signal E i, and outputs it to the arrangement unit 23. To do. The reinforcement signal decoding unit 21 is a decoding unit that generates a code string ε and is paired with the reinforcement signal encoding unit 16 in the image encoding unit 1 of the image encoding device 100.

具体的には、補強信号復号手段21は、補強信号符号化手段16がPCMの符号化方式を用いる場合、符号列εを画素毎の部分符号列に分解し、分解した部分符号列を逆量子化して輝度値に戻し、これをラスタスキャンの順序で補強信号Eの各画素位置にマッピングすることにより復号し、補強信号Eを生成する。 Specifically, the reinforcement signal decoding unit 21 decomposes the code sequence ε into partial code sequences for each pixel when the reinforcement signal encoding unit 16 uses a PCM encoding method, and the decomposed partial code sequence is dequantized. The luminance value is converted into a luminance value, which is decoded by mapping it to each pixel position of the reinforcement signal E i in the order of raster scanning, and the reinforcement signal E i is generated.

また、補強信号符号化手段16が、符号化方式として、JPEG、JPEG 2000、MPEG−1、MPEG−2、MPEG−4、MPEG−4 AVC/H.264等の既存の画像符号化方式または動画像符号化方式を用いる場合、補強信号復号手段21は、その符号化方式と対になる復号方式を用いて、補強信号Eを生成する。 Further, the reinforcement signal encoding means 16 uses JPEG, JPEG 2000, MPEG-1, MPEG-2, MPEG-4, MPEG-4 AVC / H. When an existing image coding method or moving image coding method such as H.264 is used, the reinforcement signal decoding unit 21 generates the reinforcement signal E i using a decoding method paired with the coding method.

ここで、補強信号復号手段21により生成される補強信号Eは、オブジェクト領域情報Dの示す空間領域を補強し、高解像度の(空間分解能の高い)画像を生成するための信号である。以下、i番目(i=0,・・・,F−1(Fはオブジェクトの個数))のインデックスについて、i番目のオブジェクトを含む領域内の代表点(例えば、重心、最もx座標の小さい画素群の中で最もy座標の小さい画素の画像座標等)を原点としたときの、座標(x,y)における補強信号をE(x,y)とする。 Here, the reinforcement signal E i generated by the reinforcement signal decoding means 21 is a signal for reinforcing the spatial area indicated by the object area information D and generating a high resolution (high spatial resolution) image. Hereinafter, with respect to the i-th (i = 0,..., F-1 (F is the number of objects)) index, the representative point (for example, the center of gravity, the pixel with the smallest x coordinate) in the region including the i-th object Let E i (x, y) be the reinforcement signal at coordinates (x, y) when the origin is the image coordinate of the pixel with the smallest y coordinate in the group.

(縮小画像復号手段)
縮小画像復号手段22は、逆多重化手段20から、縮小画像Lが符号化された符号列λを入力し、符号列λを復号して縮小画像Lを生成し、画像拡大手段24に出力すると共に、オブジェクト検出用画像としてオブジェクト検出手段4に出力する。この縮小画像復号手段22は、符号列λを生成した、画像符号化装置100の画像符号化手段1における縮小画像符号化手段11と対になる復号手段である。
(Reduced image decoding means)
The reduced image decoding unit 22 receives the code sequence λ obtained by encoding the reduced image L from the demultiplexing unit 20, generates the reduced image L by decoding the code sequence λ, and outputs the reduced image L to the image enlargement unit 24. At the same time, the image is output to the object detection means 4 as an object detection image. The reduced image decoding unit 22 is a decoding unit that generates the code string λ and is paired with the reduced image encoding unit 11 in the image encoding unit 1 of the image encoding device 100.

具体的には、縮小画像復号手段22は、縮小画像符号化手段11がPCMの符号化方式を用いる場合、符号列λを画素毎の部分符号列に分解し、分解した部分符号列を逆量子化して輝度値に戻し、これをラスタスキャンの順序で縮小画像Lの各画素位置にマッピングすることにより復号し、縮小画像Lを生成する。   Specifically, when the reduced image encoding unit 11 uses a PCM encoding method, the reduced image decoding unit 22 decomposes the code sequence λ into partial code sequences for each pixel, and converts the decomposed partial code sequence into an inverse quantum. The luminance value is converted into a luminance value, which is decoded by mapping to each pixel position of the reduced image L in the order of raster scan, and the reduced image L is generated.

また、縮小画像符号化手段11が、符号化方式として、JPEG、JPEG 2000、MPEG−1、MPEG−2、MPEG−4、MPEG−4 AVC/H.264等の既存の画像符号化方式または動画像符号化方式を用いる場合、縮小画像復号手段22は、その符号化方式と対になる復号方式を用いて、縮小画像Lを生成する。   Further, the reduced image encoding means 11 uses JPEG, JPEG 2000, MPEG-1, MPEG-2, MPEG-4, MPEG-4 AVC / H. When an existing image encoding method or moving image encoding method such as H.264 is used, the reduced image decoding unit 22 generates a reduced image L using a decoding method that is paired with the encoding method.

(配置手段)
配置手段23は、補強信号復号手段21から補強信号Eを入力し、オブジェクト検出手段4からオブジェクト領域情報Dを入力し、オブジェクト領域情報Dの示す空間領域に基づいて、補強信号Eを重畳すべき位置を決定し、補強画像Gを生成して加算手段25に出力する。具体的には、配置手段23は、画像復号手段3が出力すべき鮮鋭化画像Hの大きさ(画素数及びアスペクト比)を有するフレームメモリを備え、補強信号Eの重畳位置を決定した後、重畳位置に対応したフレームメモリのアドレス位置に補強信号Eを格納し、フレームメモリ上の画像を補強画像Gとして生成する。
(Arrangement means)
The placement means 23 receives the reinforcement signal E i from the reinforcement signal decoding means 21, receives the object area information D from the object detection means 4, and superimposes the reinforcement signal E i based on the spatial area indicated by the object area information D. A position to be determined is determined, and a reinforcing image G is generated and output to the adding means 25. Specifically, the arrangement unit 23 includes a frame memory having the size (number of pixels and aspect ratio) of the sharpened image H to be output by the image decoding unit 3, and after determining the superposition position of the reinforcement signal E i The reinforcement signal E i is stored at the address position of the frame memory corresponding to the superposition position, and the image on the frame memory is generated as the reinforcement image G.

例えば、配置手段23は、補強信号Eの画素値を、重畳位置に対応したフレームメモリのアドレスに格納することにより、補強画像Gを生成する。但し、複数の補強信号Eの領域が重なっている場合、配置手段23は、その領域における画素値の代表値(例えば平均値)を算出し、算出結果の画素値をその領域の画素値として用いる。 For example, the placement unit 23 generates the reinforcement image G by storing the pixel value of the reinforcement signal E i at the address of the frame memory corresponding to the overlapping position. However, when the regions of the plurality of reinforcement signals E i overlap, the arrangement unit 23 calculates a representative value (for example, an average value) of the pixel values in the region, and uses the pixel value of the calculation result as the pixel value of the region. Use.

例えば、オブジェクト領域情報Dに含まれる領域Dが、バウンディングボックス(左上の頂点の画像座標(p,q)、右下の頂点の画像座標(r,s)とした情報)で表されており、補強信号Eが、画像符号化装置100の画像符号化手段1における差分演算手段15において、部分画像B,Cの差分、または部分画像B,Cの階調数を法とする剰余の差分として演算されている場合、配置手段23は、以下の式により、補強画像Gを生成する。

Figure 0005308322
For example, the region D i included in the object area information D is bounding box (upper left vertex of the image coordinates (p i, q i), the image coordinates of the lower right apex (r i, s i) and information) represented and, the reinforcing signal E i is the difference calculation unit 15 in the image coding unit 1 of the image coding apparatus 100, the partial image B i, the difference between C i or the partial image B i,, gradation of C i When the difference is calculated as a modulo difference, the arrangement unit 23 generates the reinforcement image G by the following equation.
Figure 0005308322

(画像拡大手段)
画像拡大手段24は、縮小画像復号手段22から縮小画像Lを入力し、縮小画像Lを所定の大きさ(例えば、鮮鋭化画像Hの大きさ)になるまで画素を挿入して拡大し、拡大画像Kを生成して加算手段25に出力する。画像拡大手段24は、図2及び図4に示した実施例1及び実施例1の変形例による画像符号化手段1の画像拡大手段12と同様の処理を行うから、ここでは説明を省略する。
(Image enlargement means)
The image enlarging means 24 receives the reduced image L from the reduced image decoding means 22, and enlarges the reduced image L by inserting pixels until it reaches a predetermined size (for example, the size of the sharpened image H). An image K is generated and output to the adding means 25. Since the image enlarging means 24 performs the same processing as the image enlarging means 12 of the image encoding means 1 according to the first embodiment shown in FIGS. 2 and 4 and the modification of the first embodiment, the description thereof is omitted here.

(加算手段)
加算手段25は、配置手段23から補強画像Gを入力し、画像拡大手段24から拡大画像Kを入力し、以下の式に示すように、補強画像Gと拡大画像Kとを加算し、鮮鋭化画像Hを生成して出力する。

Figure 0005308322
(Addition means)
The adding means 25 inputs the reinforcing image G from the arranging means 23, inputs the enlarged image K from the image enlarging means 24, adds the reinforcing image G and the enlarged image K as shown in the following formula, and sharpens it. An image H is generated and output.
Figure 0005308322

(実施例1及び実施例1の変形例に対応する画像復号手段により処理される画像例)
図10は、実施例1及び実施例1の変形例の画像復号手段3により、空間方向に処理される画像例を説明する図である。拡大画像Kは、画像拡大手段24により縮小画像Lから生成され、オブジェクト領域情報Dに含まれる領域D,Dは、オブジェクト検出手段4により縮小画像Lであるオブジェクト検出用画像から生成される。また、補強画像Gは、配置手段23により、補強信号E,E及びオブジェクト領域情報Dに含まれる領域D,Dから生成され、鮮鋭化画像Hは、加算手段25により拡大画像K及び補強画像Gから生成される。鮮鋭化画像Hは、スペクトルの広域成分が存在しないぼけた印象を受ける拡大画像Kと補強画像Gとが加算された結果、オブジェクト領域情報Dが示す領域が高解像度画像となる。
(Example of image processed by image decoding means corresponding to the first embodiment and the modification of the first embodiment)
FIG. 10 is a diagram illustrating an example of an image processed in the spatial direction by the image decoding unit 3 according to the first embodiment and a modification of the first embodiment. The enlarged image K is generated from the reduced image L by the image enlargement unit 24, and the areas D 0 and D 1 included in the object area information D are generated from the object detection image that is the reduced image L by the object detection unit 4. . Further, the reinforcement image G is generated from the reinforcement signals E 0 and E 1 and the areas D 0 and D 1 included in the object area information D by the arrangement unit 23, and the sharpened image H is enlarged by the addition unit 25. And the reinforcing image G. In the sharpened image H, as a result of the addition of the enlarged image K that receives a blurred impression in which no broad spectrum component exists and the reinforcing image G, the region indicated by the object region information D becomes a high-resolution image.

以上のように、実施例1及び実施例1の変形例に対応して、空間方向の画像処理を行う画像復号手段3を備えた画像復号装置200によれば、画像符号化装置100から、符号列μを入力し、オブジェクト検出手段4が、符号列μに含まれる符号列λから復号された低解像度の縮小画像Lであるオブジェクト検出用画像に基づいて、オブジェクト領域情報D(所定のオブジェクトを含む領域の情報)を生成するようにした。また、画像復号手段3の配置手段23が、オブジェクト領域情報Dの示す空間領域の位置に、符号列μに含まれる符号列εから復号された補強信号Eを配置し、高解像度画像を生成するための補強画像Gを生成し、加算手段25が、画像拡大手段24により縮小画像Lが拡大された拡大画像Kと補強画像Gとを加算して、鮮鋭化画像Hを生成するようにした。これにより、鮮鋭化画像Hは、オブジェクト領域情報Dの空間領域について、オブジェクトである被写体の滑らかな輪郭と詳細なテクスチャを再現した高精細な高解像度画像となる。また、画像符号化装置100から入力する符号列μは、低解像度画像の符号列λ、及びオブジェクト領域情報Dの示す空間領域における補強信号Eの符号列εであり、オブジェクトの配置に関するオブジェクト領域情報Dを含まないから、符号量は少なくて済み、復号処理の負担を軽減することができる。したがって、補強信号Eを用いて、オブジェクトである被写体を含む部分画像の分解能を、効率的に向上させることが可能となる。 As described above, according to the image decoding device 200 including the image decoding means 3 that performs image processing in the spatial direction in accordance with the first embodiment and the modification of the first embodiment, The column μ is input, and the object detection unit 4 is configured to select object region information D (predetermined object is stored on the basis of the object detection image that is a reduced resolution L of the low resolution decoded from the code sequence λ included in the code sequence μ. (Information of the area to be included) was generated. Further, the arrangement unit 23 of the image decoding unit 3 arranges the reinforcement signal E i decoded from the code sequence ε included in the code sequence μ at the position of the spatial region indicated by the object region information D, and generates a high-resolution image. A reinforcing image G is generated, and the adding unit 25 adds the enlarged image K obtained by enlarging the reduced image L by the image enlarging unit 24 and the reinforcing image G to generate a sharpened image H. . As a result, the sharpened image H becomes a high-definition high-resolution image that reproduces the smooth outline and detailed texture of the subject that is the object in the spatial region of the object region information D. The code sequence μ input from the image encoding device 100 is the code sequence λ of the low-resolution image and the code sequence ε of the reinforcement signal E i in the spatial region indicated by the object region information D, and the object region related to the object arrangement Since the information D is not included, the code amount is small, and the burden of the decoding process can be reduced. Therefore, it is possible to efficiently improve the resolution of the partial image including the subject that is the object by using the reinforcement signal E i .

尚、図9に示した画像復号手段3では、配置手段23と加算手段25とを、別々の処理単位の構成要素として説明したが、これらを一つの処理単位の構成要素とするようにしてもよい。具体的には、画像復号手段3は、図9に示すように、配置手段23及び加算手段25の代わりに、配置加算手段26を備える。配置加算手段26は、画像拡大手段24から拡大画像Kを入力し、補強信号復号手段21から補強信号Eを入力し、オブジェクト検出手段4からオブジェクト領域情報Dを入力し、オブジェクト領域情報Dの示す空間領域に基づいて、補強信号Eを加算すべき位置を決定し、拡大画像Kのうちの前記決定位置の画像に、前記決定位置の補強信号Eを加算し、加算後の拡大画像Kを鮮鋭化画像Hとして出力する。これにより、画像復号手段3は、補強画像Gを生成することなく、鮮鋭化画像Hを直接生成するようにしたから、演算量及びメモリ量が少なくて済み、復号処理の負担を一層軽減することができる。したがって、補強信号Eを用いて、オブジェクトである被写体を含む部分画像の分解能を、一層効率的に向上させることが可能となる。 In the image decoding unit 3 shown in FIG. 9, the arrangement unit 23 and the addition unit 25 have been described as components of separate processing units, but these may be configured as components of one processing unit. Good. Specifically, as shown in FIG. 9, the image decoding unit 3 includes an arrangement addition unit 26 instead of the arrangement unit 23 and the addition unit 25. The arrangement adding means 26 receives the enlarged image K from the image enlarging means 24, receives the reinforcement signal E i from the reinforcement signal decoding means 21, receives the object area information D from the object detection means 4, and receives the object area information D based on the spatial area shown, to determine the position to be added reinforcement signal E i, to the determination position of the enlarged image K image, by adding the helper signal E i of the determined position, the enlarged image after addition K is output as a sharpened image H. As a result, the image decoding unit 3 directly generates the sharpened image H without generating the reinforcing image G, so that the calculation amount and the memory amount are small, and the burden of decoding processing is further reduced. Can do. Therefore, it is possible to improve the resolution of the partial image including the subject as the object more efficiently by using the reinforcement signal E i .

〔実施例2及び実施例2の変形例に対応する画像復号手段〕
次に、前述した実施例2及び実施例2の変形例による画像符号化手段1に対応して、時間方向の画像処理を行う画像復号手段3について説明する。画像復号手段3は、符号列μを復号して得た縮小画像Lをオブジェクト検出用画像とし、オブジェクト検出手段4にオブジェクト領域情報Dを生成させ、時間方向の画像処理を行い、符号列μを復号して得た補強信号Eを用いて、オブジェクト領域情報Dの示す時間領域の分解能を向上させた鮮鋭化画像Hを生成する。
[Image Decoding Unit Corresponding to Second Embodiment and Modified Example of Second Embodiment]
Next, an image decoding unit 3 that performs image processing in the time direction corresponding to the image encoding unit 1 according to the second embodiment and the modification of the second embodiment will be described. The image decoding means 3 uses the reduced image L obtained by decoding the code string μ as an object detection image, causes the object detection means 4 to generate object region information D, performs image processing in the time direction, and obtains the code string μ. Using the reinforcement signal E i obtained by decoding, a sharpened image H with improved time domain resolution indicated by the object region information D is generated.

実施例2及び実施例2の変形例に対応する画像復号手段3は、図9に示した画像復号手段3と同じ手段を備えて構成される。逆多重化手段20、補強信号復号手段21及び縮小画像復号手段22は、実施例1及び実施例1の変形例に対応する画像復号手段3における各手段と同様の処理を行うから、ここでは説明を省略する。以下、時刻をtとし、画像Iの時刻t、画像座標(x,y)における画素値をI(t,x,y)とする。   The image decoding means 3 corresponding to the second embodiment and the modification of the second embodiment is configured to include the same means as the image decoding means 3 shown in FIG. The demultiplexing unit 20, the reinforcement signal decoding unit 21, and the reduced image decoding unit 22 perform the same processing as each unit in the image decoding unit 3 corresponding to the modification of the first embodiment and the first embodiment, and will be described here. Is omitted. Hereinafter, the time is t, and the pixel value at the time t of the image I and the image coordinates (x, y) is I (t, x, y).

(画像拡大手段)
画像拡大手段24は、縮小画像復号手段22から縮小画像Lを入力し、縮小画像Lに対し時間方向に補間処理を行い、所定の大きさ(例えば、鮮鋭化画像Hと同じフレームレート)になるまでフレームを挿入して拡大し、拡大画像Kを生成して加算手段25に出力する。画像拡大手段24は、図2及び図4に示した実施例2及び実施例2の変形例による画像符号化手段1の画像拡大手段12と同様の処理を行うから、ここでは説明を省略する。
(Image enlargement means)
The image enlarging means 24 receives the reduced image L from the reduced image decoding means 22, performs interpolation processing on the reduced image L in the time direction, and has a predetermined size (for example, the same frame rate as the sharpened image H). The frame is inserted and enlarged to generate an enlarged image K and output to the adding means 25. The image enlarging means 24 performs the same processing as the image enlarging means 12 of the image encoding means 1 according to the second embodiment and the modification of the second embodiment shown in FIGS.

(配置手段)
配置手段23は、補強信号復号手段21から補強信号Eを入力し、オブジェクト検出手段4からオブジェクト領域情報Dを入力し、オブジェクト領域情報Dに含まれる領域Dから代表時刻τを求める。例えば、領域Dの時刻から、最小の時刻、小さい方から所定番目の時刻、中央の時刻、最大の時刻、平均時刻等を代表時刻τとして求める。
(Arrangement means)
The placement unit 23 receives the reinforcement signal E i from the reinforcement signal decoding unit 21, receives the object region information D from the object detection unit 4, and obtains the representative time τ i from the region D i included in the object region information D. For example, from the time in the region D i , the minimum time, the predetermined time from the smallest, the central time, the maximum time, the average time, and the like are obtained as the representative time τ i .

そして、配置手段23は、以下の式により、補強信号Eを配置すべきフレーム位置を決定し、フレームの位置(時刻)合わせをしながら補強信号Eを配置し、補強画像Gを生成して加算手段25に出力する。

Figure 0005308322
但し、E(t,x,y)の値が定義されない時刻tに対しては、E(t,x,y)=0とする。 Then, the placement unit 23 determines the frame position where the reinforcement signal E i is to be placed according to the following formula, places the reinforcement signal E i while adjusting the position (time) of the frame, and generates the reinforcement image G. And output to the adding means 25.
Figure 0005308322
However, for the E i (t, x, y ) value of no defined time t, and E i (t, x, y ) = 0.

(加算手段)
加算手段25は、配置手段23から補強画像Gを入力し、画像拡大手段24から拡大画像Kを入力し、以下の式により、補強画像Gと拡大画像Kとを加算し、鮮鋭化画像Hを生成して出力する。

Figure 0005308322
(Addition means)
The adding means 25 inputs the reinforcing image G from the arranging means 23, inputs the enlarged image K from the image enlarging means 24, adds the reinforcing image G and the enlarged image K by the following formula, and obtains the sharpened image H. Generate and output.
Figure 0005308322

尚、加算手段25は、以下の式により、補強画像G及び拡大画像Kの階調数を法とする剰余の加算を演算し、この演算結果を鮮鋭化画像Hとして生成するようにしてもよい。

Figure 0005308322
The adding means 25 may calculate the addition of the remainder modulo the number of gradations of the reinforcing image G and the enlarged image K by the following formula and generate the calculation result as a sharpened image H. .
Figure 0005308322

(実施例2及び実施例2の変形例に対応する画像復号手段により処理される画像例)
図11は、実施例2及び実施例2の変形例の画像復号手段3により、時間方向に処理される画像例を説明する図である。
(Example of image processed by image decoding means corresponding to the second embodiment and a modification of the second embodiment)
FIG. 11 is a diagram illustrating an example of an image processed in the time direction by the image decoding unit 3 according to the second embodiment and a modification of the second embodiment.

まず、図11におけるオブジェクト検出手段4の処理について説明する。前述のとおり、オブジェクト検出手段4は、オブジェクト検出用画像である縮小画像Lから時間方向に局在する所定のオブジェクトを検出し、そのオブジェクトを含む領域群をオブジェクト領域情報Dとして生成する。具体的には、オブジェクト検出手段4は、オブジェクト検出用画像である縮小画像L内において、オブジェクトが存在する時間区間を推定する。例えば、オブジェクト検出手段4は、縮小画像Lにおけるフレーム間の差分を計算し、差分の絶対値和d(t)を計算し、この絶対値和d(t)が閾値θを超える時刻tの集合Tを求め、集合Tを部分集合の領域Dとしてオブジェクト領域情報Dを生成する。差分の絶対値和d(t)は、前述の式(27)により計算され、集合Tは、前述の式(28)により求められる。 First, the processing of the object detection unit 4 in FIG. 11 will be described. As described above, the object detection unit 4 detects a predetermined object localized in the time direction from the reduced image L, which is an object detection image, and generates a group of regions including the object as object region information D. Specifically, the object detection unit 4 estimates a time interval in which an object exists in the reduced image L that is an object detection image. For example, the object detection unit 4 calculates a difference between frames in the reduced image L, calculates an absolute value sum d (t) of the differences, and a set of times t at which the absolute value sum d (t) exceeds the threshold θ. T is obtained, and object area information D is generated with the set T as a sub-area D i . The absolute value sum d (t) of the differences is calculated by the above equation (27), and the set T is obtained by the above equation (28).

図11の例では、絶対値和d(t)が閾値θを超える時刻tの集合Tは、以下の式で表される。

Figure 0005308322
また、部分集合の領域Dは、時刻順に整順された場合、以下の式で表される。
Figure 0005308322
ここで、部分集合の領域Dは、式(39)における各集合を時間方向に前後それぞれ一定時間拡張した集合、以下の式で表される。
Figure 0005308322
尚、一定時間拡張した結果、複数の部分集合の領域Dが時間的に隣接するようになった場合には、これらを一つの集合に併合し、新たな部分集合の領域Dとして扱うようにしてもよい。 In the example of FIG. 11, the set T at time t when the absolute value sum d (t) exceeds the threshold θ is expressed by the following equation.
Figure 0005308322
Further, the subset region D i is expressed by the following expression when arranged in order of time.
Figure 0005308322
Here, the region D i of the subset is a set obtained by extending each set in Formula (39) for a certain period of time in the time direction, and is expressed by the following formula.
Figure 0005308322
When a plurality of subset areas D i are temporally adjacent as a result of expansion for a certain period of time, they are merged into one set and treated as a new subset area D i. It may be.

図11において、拡大画像Kは、画像拡大手段24により縮小画像Lから生成され、オブジェクト領域情報Dに含まれる領域D,Dは、オブジェクト検出手段4により縮小画像Lであるオブジェクト検出用画像から生成される。また、補強画像Gは、配置手段23により、補強信号E,E及びオブジェクト領域情報Dに含まれる領域D,Dから生成される。ここで、代表時刻τ=4,τ=8は、オブジェクト領域情報Dに含まれる領域D,Dから求められ、補強画像Gにおけるt=3,4,5のフレームに補強信号Eが配置され、t=7,8,9のフレームに補強信号Eが配置される。鮮鋭化画像Hは、加算手段25により拡大画像K及び補強画像Gから生成される。鮮鋭化画像Hは、オブジェクト領域情報Dが示す時間領域に配置された補強画像Gにより、時間分解能の高い画像となる。 In FIG. 11, an enlarged image K is generated from the reduced image L by the image enlargement unit 24, and areas D 0 and D 1 included in the object area information D are object detection images that are reduced images L by the object detection unit 4. Generated from Further, the reinforcement image G is generated by the arrangement means 23 from the reinforcement signals E 0 and E 1 and the areas D 0 and D 1 included in the object area information D. Here, the representative times τ 0 = 4, τ 1 = 8 are obtained from the regions D 0 and D 1 included in the object region information D n , and the reinforcement signal is transmitted to the frames of t = 3, 4, and 5 in the reinforcement image G. E 0 is arranged, and the reinforcement signal E 1 is arranged in the frames of t = 7, 8, and 9. The sharpened image H is generated from the enlarged image K and the reinforcing image G by the adding means 25. The sharpened image H becomes an image with a high time resolution due to the reinforcing image G arranged in the time region indicated by the object region information D.

以上のように、実施例2及び実施例2の変形例に対応して、時間方向の画像処理を行う画像復号手段3を備えた画像復号装置200によれば、画像符号化装置100から、符号列μを入力し、オブジェクト検出手段4が、符号列μに含まれる符号列λから復号された時間分解能の低い縮小画像Lであるオブジェクト検出用画像に基づいて、オブジェクト領域情報D(所定のオブジェクトを含む時間領域の情報)を生成するようにした。また、画像復号手段3の配置手段23が、オブジェクト領域情報Dの示す時間領域の位置に、符号列μに含まれる符号列εから復号された補強信号Eを配置し、補強画像Gを生成し、加算手段25が、画像拡大手段24により縮小画像Lが拡大された拡大画像Kと補強画像Gとを加算して、鮮鋭化画像Hを生成するようにした。これにより、鮮鋭化画像Hは、オブジェクト領域情報Dの時間領域について、オブジェクトである被写体の滑らかな動きを再現した、時間分解能の高い画像となる。画像符号化装置100から入力する符号列μは、時間分解能の低い画像の符号列λ、及びオブジェクト領域情報Dの示す時間領域における補強信号Eの符号列εであり、オブジェクト領域情報Dを含まないから、符号量は少なくて済み、復号処理の負担を軽減することができる。したがって、補強信号Eを用いて、オブジェクトである被写体を含む画像の時間分解能を、効率的に向上させることが可能となる。 As described above, according to the image decoding device 200 including the image decoding unit 3 that performs image processing in the time direction in accordance with the second embodiment and the modification of the second embodiment, The sequence μ is input, and the object detection unit 4 uses the object area information D (predetermined object) based on the object detection image which is the reduced image L with low temporal resolution decoded from the code sequence λ included in the code sequence μ. (Time domain information including). Further, the arrangement unit 23 of the image decoding unit 3 arranges the reinforcement signal E i decoded from the code sequence ε included in the code sequence μ at the position of the time region indicated by the object region information D, and generates the reinforcement image G. Then, the adding unit 25 adds the enlarged image K obtained by enlarging the reduced image L by the image enlarging unit 24 and the reinforcing image G to generate the sharpened image H. As a result, the sharpened image H becomes an image with high time resolution that reproduces the smooth movement of the subject that is the object in the time region of the object region information D. The code sequence μ input from the image encoding device 100 is a code sequence λ of an image with low time resolution and a code sequence ε of the reinforcement signal E i in the time domain indicated by the object area information D, and includes the object area information D. Therefore, the code amount is small, and the burden of decoding processing can be reduced. Therefore, it is possible to efficiently improve the time resolution of an image including a subject that is an object using the reinforcement signal E i .

尚、実施例2及び実施例2の変形例に対応する画像復号手段3では、配置手段23と加算手段25とを、別々の処理単位の構成要素として説明したが、これらを一つの処理単位の構成要素とするようにしてもよい。具体的には、画像復号手段3は、図9に示すように、配置手段23及び加算手段25の代わりに、配置加算手段26を備える。配置加算手段26は、画像拡大手段24から拡大画像Kを入力し、補強信号復号手段21から補強信号Eを入力し、オブジェクト検出手段4からオブジェクト領域情報Dを入力し、オブジェクト領域情報Dの示す時間領域に基づいて、補強信号Eを加算すべき時間位置を決定し、拡大画像Kのうちの前記決定位置の画像と、前記決定位置の補強信号Eとを加算し、鮮鋭化画像Hを生成して出力する。これにより、画像復号手段3は、補強画像Gを生成することなく、鮮鋭化画像Hを直接生成するようにしたから、演算量及びメモリ量が少なくて済み、復号処理の負担を軽減することができる。したがって、補強信号Eを用いて、オブジェクトである被写体を含む画像の時間分解能を、一層効率的に向上させることが可能となる。 In the image decoding means 3 corresponding to the second embodiment and the modification of the second embodiment, the arranging means 23 and the adding means 25 have been described as components of separate processing units. You may make it be a component. Specifically, as shown in FIG. 9, the image decoding unit 3 includes an arrangement addition unit 26 instead of the arrangement unit 23 and the addition unit 25. The arrangement adding means 26 receives the enlarged image K from the image enlarging means 24, receives the reinforcement signal E i from the reinforcement signal decoding means 21, receives the object area information D from the object detection means 4, and receives the object area information D Based on the time domain shown, the time position to which the reinforcement signal E i is to be added is determined, the image at the determined position in the enlarged image K and the reinforcement signal E i at the determined position are added, and the sharpened image H is generated and output. As a result, the image decoding means 3 directly generates the sharpened image H without generating the reinforcement image G, so that the calculation amount and the memory amount can be reduced, and the burden of decoding processing can be reduced. it can. Therefore, it is possible to more efficiently improve the time resolution of an image including a subject that is an object using the reinforcement signal E i .

以上、本発明の実施形態による画像復号装置200について、実施例1及び実施例1の変形例に対応する画像復号手段3と、実施例2及び実施例2の変形例に対応する画像復号手段3とに分けて説明したが、画像符号化装置100が、実施例1または実施例1の変形例と、実施例2または実施例2の変形例とを組み合わせて構成される場合、画像復号装置200は、空間方向及び時間方向の画像処理を行い、空間分解能及び時間分解能を向上させた鮮鋭化画像Hを生成する。具体的には、オブジェクト検出手段4は、縮小画像Lであるオブジェクト検出用画像に基づいて、オブジェクトを含む空間領域及び時間領域のオブジェクト領域情報Dを生成し、画像復号手段3の配置手段23は、オブジェクト領域情報Dの示す時間領域に基づいて、補強信号Eを加算すべき時間位置を決定し、オブジェクト領域情報Dの示す空間領域に基づいて、補強信号Eを加算すべき空間位置を決定し、補強画像Gを生成する。そして、加算手段25は、縮小画像Lが拡大された拡大画像Kと補強画像Gとを加算し、鮮鋭化画像Hを生成する。これにより、補強信号Eを用いて、オブジェクトである被写体を含む画像の空間分解能及び時間分解能を、一層効率的に向上させることが可能となる。 As described above, with respect to the image decoding apparatus 200 according to the embodiment of the present invention, the image decoding unit 3 corresponding to the modified example of Example 1 and Example 1, and the image decoding unit 3 corresponding to the modified example of Example 2 and Example 2. However, when the image coding apparatus 100 is configured by combining the modification example of the first embodiment or the first embodiment and the modification example of the second embodiment or the second embodiment, the image decoding apparatus 200 is described. Performs image processing in the spatial direction and the temporal direction, and generates a sharpened image H with improved spatial resolution and temporal resolution. Specifically, the object detection unit 4 generates the object area information D of the space area and the time area including the object based on the object detection image that is the reduced image L, and the arrangement unit 23 of the image decoding unit 3 , based on the time domain indicated by the object area information D, determines to be time position adds reinforcement signal E i, based on the spatial area indicated by the object area information D, and spatial position to adding the reinforcing signal E i Then, the reinforcing image G is generated. Then, the adding means 25 adds the enlarged image K obtained by enlarging the reduced image L and the reinforcement image G, and generates a sharpened image H. As a result, it is possible to more efficiently improve the spatial resolution and temporal resolution of an image including a subject that is an object using the reinforcement signal E i .

以上、実施例を挙げて本発明を説明したが、本発明は前記実施例に限定されるものではなく、その技術思想を逸脱しない範囲で種々変形可能である。本発明による画像符号化装置及び画像復号装置は、全体画像を低分解能の符号列で伝送し、オブジェクトである被写体を含む画像を高分解能化するために、補強信号Eの符号列を伝送する装置に適用があり、例えば、画像復号装置として、小画面の表示器を備えた携帯端末にも適用がある。 The present invention has been described with reference to the embodiments. However, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the technical idea thereof. The image encoding device and the image decoding device according to the present invention transmit the entire image with a low-resolution code sequence, and transmit the code sequence of the reinforcement signal E i in order to increase the resolution of the image including the object that is the object. For example, the present invention is also applicable to a mobile terminal having a small screen display as an image decoding device.

例えば、携帯端末は、通常時に、縮小画像復号手段22により復号された分解能の低い縮小画像Lを表示器に表示する。そして、携帯端末は、ユーザによるオブジェクト表示の操作があったときに、オブジェクトを含む領域の画像を、加算手段25により出力された鮮鋭化画像Hから切り出し、その画像を拡大して表示器に画面表示する。具体的には、携帯端末の画像復号手段3は表示手段を備えており、配置手段23は、オブジェクト領域情報Dから、オブジェクトを含む空間領域の座標情報、またはオブジェクトを含む時間領域のフレーム情報を生成する。表示手段は、縮小画像復号手段22から縮小画像Lである低分解能画像を入力して表示器に画面表示する。そして、表示手段は、ユーザの操作に従って、配置手段23から座標情報またはフレーム情報を入力し、加算手段25から鮮鋭化画像Hを入力し、鮮鋭化画像Hから、座標情報またはフレーム情報が示す領域の画像を切り出して拡大し、表示器に画面表示する。これにより、オブジェクトを含む領域の画像は高分解能に表示されるから、符号化効率の優れた伝送によって、ユーザの操作の従った見易い画像を提示することができる。   For example, the portable terminal normally displays the reduced image L with low resolution decoded by the reduced image decoding means 22 on the display. Then, when the user performs an object display operation, the mobile terminal cuts out the image of the area including the object from the sharpened image H output by the adding unit 25, enlarges the image, and displays the image on the display. indicate. Specifically, the image decoding unit 3 of the portable terminal includes a display unit, and the arrangement unit 23 obtains the coordinate information of the spatial region including the object or the frame information of the time region including the object from the object region information D. Generate. The display means inputs a low resolution image, which is the reduced image L, from the reduced image decoding means 22 and displays it on the display. Then, the display unit inputs coordinate information or frame information from the arrangement unit 23, inputs a sharpened image H from the adding unit 25, and displays the region indicated by the coordinate information or frame information from the sharpened image H in accordance with a user operation. The image is cut out and enlarged, and displayed on the display. As a result, since the image of the area including the object is displayed with high resolution, it is possible to present an easy-to-view image that is followed by the user's operation by transmission with excellent encoding efficiency.

また、画像符号化装置100は、縮小画像Lの符号列λと補強信号Eの符号列εとを多重化した符号列μを、放送伝送路を介して画像復号装置200へ送信するようにしてもよいし、インターネット等の通信ネットワークを介して送信するようにしてもよい。 In addition, the image encoding device 100 transmits the code sequence μ obtained by multiplexing the code sequence λ of the reduced image L and the code sequence ε of the reinforcement signal E i to the image decoding device 200 via the broadcast transmission path. Alternatively, it may be transmitted via a communication network such as the Internet.

また、画像符号化装置100の画像符号化手段1は、必ずしも多重化手段17を備える必要がない。多重化手段17を備えていない場合、画像符号化装置100は、縮小画像Lの符号列λ及び補強信号Eの符号列εをそれぞれ独立に、放送伝送路を介して画像復号装置200へ送信するようにしてもよいし、通信ネットワークを介して送信するようにしてもよい。また、画像符号化装置100は、縮小画像Lの符号列λを、放送伝送路を介して画像復号装置200へ送信し、補強信号Eの符号列εを、通信ネットワークを介して画像復号装置200へ送信するようにしてもよいし、縮小画像Lの符号列λを、通信ネットワークを介して画像復号装置200へ送信し、補強信号Eの符号列εを、放送伝送路を介して画像復号装置200へ送信するようにしてもよい。また、画像符号化装置100は、縮小画像Lの符号列λに対し、高度なエラー対策等の処理を施し信頼性の高い通信ネットワークを介して画像復号装置200へ送信し、補強信号Eの符号列εを、信頼性の低い通信ネットワークを介して画像復号装置200へ送信するようにしてもよい。これにより、符号量を削減することができ、符号化の効率を向上させることができる。また、画像符号化装置100は、縮小画像Lの符号列λを、無料で画像復号装置200へ送信し、補強信号Eの符号列εを、課金処理により有料で画像復号装置200へ送信するようにしてもよい。画像符号化装置100が、縮小画像Lの符号列λと補強信号Eの符号列εとを独立して送信する場合、画像復号装置200の画像復号手段3は、逆多重化手段20を備える必要がない。 Further, the image encoding unit 1 of the image encoding device 100 does not necessarily need to include the multiplexing unit 17. When the multiplexing unit 17 is not provided, the image encoding device 100 transmits the code sequence λ of the reduced image L and the code sequence ε of the reinforcement signal E i to the image decoding device 200 via the broadcast transmission path independently. You may make it transmit, and you may make it transmit via a communication network. The image encoding device 100 transmits the code sequence λ of the reduced image L to the image decoding device 200 via the broadcast transmission path, and the image decoding device 200 transmits the code sequence ε of the reinforcement signal E i via the communication network. The code sequence λ of the reduced image L may be transmitted to the image decoding device 200 via the communication network, and the code sequence ε of the reinforcement signal E i may be transmitted via the broadcast transmission path. You may make it transmit to the decoding apparatus 200. FIG. Further, the image coding apparatus 100, to the code string λ of the reduced image L, and transmitted to the image decoding apparatus 200 via the high communication network reliability subjected to processing such as advanced error measures, the reinforcing signal E i The code sequence ε may be transmitted to the image decoding apparatus 200 via a communication network with low reliability. Thereby, the amount of codes can be reduced, and the encoding efficiency can be improved. In addition, the image encoding device 100 transmits the code sequence λ of the reduced image L to the image decoding device 200 free of charge, and transmits the code sequence ε of the reinforcement signal E i to the image decoding device 200 for a fee by charging processing. You may do it. When the image encoding device 100 independently transmits the code sequence λ of the reduced image L and the code sequence ε of the reinforcement signal E i , the image decoding unit 3 of the image decoding device 200 includes the demultiplexing unit 20. There is no need.

尚、画像符号化装置100及び画像復号装置200のハード構成としては、通常のコンピュータを使用することができる。画像符号化装置100及び画像復号装置200は、CPU、RAM等の揮発性の記憶媒体、ROM等の不揮発性の記憶媒体、及びインターフェース等を備えたコンピュータによって構成される。画像符号化装置100に備えた画像符号化手段1及びオブジェクト検出手段2の各機能は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。また、画像復号装置200に備えた画像復号手段3及びオブジェクト検出手段4の各機能は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。これらのプログラムは、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の記憶媒体に格納して頒布することもできる。   Note that a normal computer can be used as a hardware configuration of the image encoding device 100 and the image decoding device 200. The image encoding device 100 and the image decoding device 200 are configured by a computer including a CPU, a volatile storage medium such as a RAM, a non-volatile storage medium such as a ROM, an interface, and the like. The functions of the image encoding unit 1 and the object detection unit 2 provided in the image encoding device 100 are realized by causing the CPU to execute a program describing these functions. Each function of the image decoding unit 3 and the object detection unit 4 provided in the image decoding device 200 is realized by causing the CPU to execute a program describing these functions. These programs can be stored and distributed in a storage medium such as a magnetic disk (floppy (registered trademark) disk, hard disk, etc.), optical disk (CD-ROM, DVD, etc.), semiconductor memory, or the like.

1 画像符号化手段
2,4 オブジェクト検出手段
3 画像復号手段
10 画像縮小手段
11 縮小画像符号化手段
12,24 画像拡大手段
13,14 画像切り出し手段
15 差分演算手段
16 補強信号符号化手段
17 多重化手段
18 画像拡大切り出し手段
19 局所画像復号手段
20 逆多重化手段
21 補強信号復号手段
22 縮小画像復号手段
23 配置手段
25 加算手段
26 配置加算手段
100 画像符号化装置
200 画像復号装置
DESCRIPTION OF SYMBOLS 1 Image encoding means 2, 4 Object detection means 3 Image decoding means 10 Image reduction means 11 Reduced image encoding means 12, 24 Image enlargement means 13, 14 Image clipping means 15 Difference calculation means 16 Reinforcement signal encoding means 17 Multiplexing Means 18 Image enlargement and cutout means 19 Local image decoding means 20 Demultiplexing means 21 Reinforcement signal decoding means 22 Reduced image decoding means 23 Arrangement means 25 Addition means 26 Arrangement addition means 100 Image encoding apparatus 200 Image decoding apparatus

Claims (8)

画像を入力し、前記画像を低分解能化し、前記低分解能化した画像を符号化して符号列を出力する画像符号化装置において、
前記低分解能化された画像内に含まれる所定のオブジェクトを検出するオブジェクト検出手段と、
前記入力された画像を低分解能化して第1の符号列に符号化し、前記オブジェクト検出手段により検出されたオブジェクトを含む画像に基づいて、画像を高分解能化するための補強信号を生成し、前記補強信号を第2の符号列に符号化し、前記第1の符号列と前記第2の符号列とを出力する画像符号化手段と、を備え、
前記オブジェクト検出手段は、
前記低分解能化された画像内に含まれる所定のオブジェクトを検出し、前記画像における前記オブジェクトを含む空間領域をオブジェクト領域情報として生成し、
前記画像符号化手段は、
前記入力された画像から画素を間引いて、低分解能化した縮小画像を生成し、前記縮小画像を、前記所定のオブジェクトを検出するためのオブジェクト検出用画像として前記オブジェクト検出手段に出力する画像縮小手段と、前記画像縮小手段により生成された縮小画像を符号化し、符号列を生成する縮小画像符号化手段と、前記画像縮小手段により生成された縮小画像に画素を挿入し、拡大画像を生成する画像拡大手段と、前記画像拡大手段により生成された拡大画像から、前記オブジェクト検出手段により生成されたオブジェクト領域情報の示す空間領域の画像を切り出す第1の画像切り出し手段と、前記入力された画像から、前記オブジェクト検出手段により生成されたオブジェクト領域情報の示す空間領域の画像を切り出す第2の画像切り出し手段と、前記第1の画像切り出し手段により切り出された画像と、前記第2の画像切り出し手段により切り出された画像との間の差分を演算し、補強信号を生成する差分演算手段と、前記差分演算手段により生成された補強信号を符号化し、符号列を生成する補強信号符号化手段と、を備え、
前記縮小画像符号化手段により生成された符号列と、前記補強信号符号化手段により生成された符号列とを出力するとともに、
前記画像符号化手段は、さらに、前記縮小画像符号化手段により生成された符号列を復号し、局所復号画像を生成し、前記局所復号画像を、前記所定のオブジェクトを検出するためのオブジェクト検出用画像として前記オブジェクト検出手段に出力する局所画像復号手段を備え、
前記画像拡大手段は、前記局所画像復号手段により生成された局所復号画像を拡大して拡大画像を生成し、
前記オブジェクト検出手段は、前記局所画像復号手段により出力されたオブジェクト検出用画像に基づいて所定のオブジェクトを検出し、オブジェクト領域情報を生成する、ことを特徴とする画像符号化装置。
In an image encoding apparatus for inputting an image, reducing the resolution of the image, encoding the image with the reduced resolution, and outputting a code string,
An object detection means for detecting a predetermined object included in the low-resolution image;
The input image is reduced in resolution and encoded into a first code string, and a reinforcement signal for increasing the resolution of the image is generated based on the image including the object detected by the object detection unit, Image encoding means for encoding a reinforcement signal into a second code string and outputting the first code string and the second code string;
The object detection means includes
Detecting a predetermined object included in the low-resolution image, and generating a spatial region including the object in the image as object region information;
The image encoding means includes
Image reduction means for thinning out pixels from the input image to generate a reduced image with reduced resolution, and outputting the reduced image to the object detection means as an object detection image for detecting the predetermined object A reduced image encoding unit that encodes the reduced image generated by the image reduction unit and generates a code string; and an image that generates an enlarged image by inserting pixels into the reduced image generated by the image reduction unit From the enlargement means, the first image cutout means for cutting out the image of the spatial area indicated by the object area information generated by the object detection means from the enlarged image generated by the image enlargement means, and the input image A second image for cutting out an image of the spatial area indicated by the object area information generated by the object detection means; A difference calculating means for calculating a difference between the cutout means, the image cut out by the first image cutout means, and the image cut out by the second image cutout means, and generating a reinforcement signal; A reinforcement signal encoding means for encoding the reinforcement signal generated by the difference calculation means and generating a code string;
While outputting the code string generated by the reduced image encoding means and the code string generated by the reinforcement signal encoding means,
The image encoding means further decodes the code string generated by the reduced image encoding means, generates a locally decoded image, and uses the locally decoded image for object detection for detecting the predetermined object. A local image decoding means for outputting to the object detection means as an image,
The image enlarging means enlarges the local decoded image generated by the local image decoding means to generate an enlarged image,
The image coding apparatus according to claim 1, wherein the object detection unit detects a predetermined object based on the object detection image output by the local image decoding unit and generates object region information.
画像を入力し、前記画像を低分解能化し、前記低分解能化した画像を符号化して符号列を出力する画像符号化装置であって、前記低分解能化された画像内に含まれる所定のオブジェクトを検出するオブジェクト検出手段と、前記入力された画像を低分解能化して第1の符号列に符号化し、前記オブジェクト検出手段により検出されたオブジェクトを含む画像に基づいて、画像を高分解能化するための補強信号を生成し、前記補強信号を第2の符号列に符号化し、前記第1の符号列と前記第2の符号列とを出力する画像符号化手段と、を備え、前記オブジェクト検出手段は、 前記低分解能化された画像内に含まれる所定のオブジェクトを検出し、前記画像における前記オブジェクトを含む空間領域をオブジェクト領域情報として生成し、 前記画像符号化手段は、前記入力された画像から画素を間引いて、低分解能化した縮小画像を生成し、前記縮小画像を、前記所定のオブジェクトを検出するためのオブジェクト検出用画像として前記オブジェクト検出手段に出力する画像縮小手段と、前記画像縮小手段により生成された縮小画像を符号化し、符号列を生成する縮小画像符号化手段と、前記画像縮小手段により生成された縮小画像に画素を挿入し、拡大画像を生成する画像拡大手段と、前記画像拡大手段により生成された拡大画像から、前記オブジェクト検出手段により生成されたオブジェクト領域情報の示す空間領域の画像を切り出す第1の画像切り出し手段と、前記入力された画像から、前記オブジェクト検出手段により生成されたオブジェクト領域情報の示す空間領域の画像を切り出す第2の画像切り出し手段と、前記第1の画像切り出し手段により切り出された画像と、前記第2の画像切り出し手段により切り出された画像との間の差分を演算し、補強信号を生成する差分演算手段と、前記差分演算手段により生成された補強信号を符号化し、符号列を生成する補強信号符号化手段と、を備え、 前記縮小画像符号化手段により生成された符号列と、前記補強信号符号化手段により生成された符号列とを出力する画像符号化装置から、低分解能の画像の符号列、及び高分解能の画像を得るための補強信号の符号列を入力し、前記符号列を復号して画像を出力する画像復号装置において、
前記符号列を復号して生成された低分解能の画像を用いて、前記低分解能の画像内に含まれる所定のオブジェクトを検出するオブジェクト検出手段と、
前記入力した符号列を復号し、低分解能の画像及び補強信号を生成し、前記オブジェクトが検出された領域に前記補強信号を配置して補強画像を生成し、前記低分解能の画像と補強画像とを加算し、加算結果の画像を出力する画像復号手段と、を備えたことを特徴とする画像復号装置。
An image encoding apparatus that inputs an image, reduces the resolution of the image, encodes the reduced-resolution image, and outputs a code string, and includes a predetermined object included in the reduced-resolution image Object detection means for detecting, and for reducing the resolution of the input image and encoding it into a first code string, and for increasing the resolution of the image based on the image including the object detected by the object detection means Image encoding means for generating a reinforcement signal, encoding the reinforcement signal into a second code string, and outputting the first code string and the second code string; and the object detection means Detecting a predetermined object included in the low-resolution image, generating a spatial region including the object in the image as object region information, The image encoding means generates a reduced image with reduced resolution by thinning out pixels from the input image, and uses the reduced image as an object detection image for detecting the predetermined object. An image reduction means for outputting to the image, a reduced image generated by the image reduction means, a reduced image encoding means for generating a code string, and a pixel inserted in the reduced image generated by the image reduction means, An image enlarging means for generating an enlarged image; a first image clipping means for cutting out an image of a spatial area indicated by the object area information generated by the object detecting means from the enlarged image generated by the image enlarging means; From the input image, an image of the spatial area indicated by the object area information generated by the object detection means is obtained. A difference for calculating a difference between the second image cutout unit to be cut out, the image cut out by the first image cutout unit, and the image cut out by the second image cutout unit, and generating a reinforcement signal A code signal generated by the reduced image encoding means; and the reinforcement signal, comprising: a calculation means; and a reinforcement signal encoding means for encoding the reinforcement signal generated by the difference calculation means and generating a code string. A code sequence of a low resolution image and a code sequence of a reinforcing signal for obtaining a high resolution image are input from an image encoding device that outputs the code sequence generated by the encoding means , and the code sequence is decoded. In the image decoding device that outputs an image,
Object detection means for detecting a predetermined object included in the low resolution image using a low resolution image generated by decoding the code string;
The input code string is decoded, a low-resolution image and a reinforcement signal are generated, a reinforcement image is generated by arranging the reinforcement signal in a region where the object is detected, and the low-resolution image and the reinforcement image And an image decoding unit that outputs an image of the addition result.
請求項に記載の画像復号装置において、
前記画像符号化装置から、前記符号列を入力し、
前記オブジェクト検出手段は、
前記低分解能の画像内に含まれる所定のオブジェクトを検出し、前記画像における前記オブジェクトを含む空間領域をオブジェクト領域情報として生成し、
前記画像復号手段は、
前記低分解能の画像の符号列を復号し、縮小画像を生成する縮小画像復号手段と、
前記補強信号の符号列を復号し、補強信号を生成する補強信号復号手段と、
前記縮小画像復号手段により生成された縮小画像に画素を挿入し、拡大画像を生成する画像拡大手段と、
前記オブジェクト検出手段により生成されたオブジェクト領域情報の示す空間領域に、前記補強信号復号手段により生成された補強信号を配置し、補強画像を生成する配置手段と、
前記画像拡大手段により生成された拡大画像と、前記配置手段により生成された補強画像とを加算し、加算後の画像を出力する加算手段と、を備えたことを特徴とする画像復号装置。
The image decoding device according to claim 2 ,
From the image encoding device, enter the code sequence,
The object detection means includes
A predetermined object included in the low-resolution image is detected, and a spatial region including the object in the image is generated as object region information;
The image decoding means includes
A reduced image decoding means for decoding a code string of the low resolution image and generating a reduced image;
Reinforcing signal decoding means for decoding the code string of the reinforcing signal and generating a reinforcing signal;
An image enlarging unit that inserts pixels into the reduced image generated by the reduced image decoding unit and generates an enlarged image;
Arrangement means for arranging a reinforcement signal generated by the reinforcement signal decoding means in a spatial region indicated by the object area information generated by the object detection means, and generating a reinforcement image;
An image decoding apparatus comprising: an addition unit that adds the enlarged image generated by the image enlargement unit and the reinforcement image generated by the arrangement unit and outputs an image after the addition.
請求項に記載の画像復号装置において、
前記配置手段及び加算手段の代わりに、配置加算手段を備え、
前記配置加算手段は、前記画像拡大手段により生成された拡大画像における、前記オブジェクト検出手段により生成されたオブジェクト領域情報の示す空間領域の画像に、前記補強信号復号手段により生成された補強信号を加算し、加算後の拡大画像を出力する、ことを特徴とする画像復号装置。
The image decoding device according to claim 3 ,
Instead of the arrangement means and the addition means, provided with an arrangement addition means,
The arrangement addition means adds the reinforcement signal generated by the reinforcement signal decoding means to the image of the spatial area indicated by the object area information generated by the object detection means in the enlarged image generated by the image enlargement means. And outputting an enlarged image after the addition.
請求項に記載の画像復号装置において、
前記オブジェクト検出手段は、前記オブジェクトをそれぞれ含むF個(Fは0以上の整数)の領域Di(i=0,・・・,F−1)をオブジェクト領域情報として生成し、
前記補強信号復号手段は、前記補強信号の符号列を復号し、F個の補強信号Eiを生成し、
前記配置手段は、前記オブジェクト検出手段により生成されたオブジェクト領域情報の示すF個の領域Diに、前記補強信号復号手段により生成されたF個の補強信号Eiを配置し、補強画像を生成する、ことを特徴とする画像復号装置。
The image decoding device according to claim 3 ,
The object detection means generates F (F is an integer of 0 or more) areas Di (i = 0,..., F−1) each including the object as object area information,
The reinforcing signal decoding means decodes the code string of the reinforcing signal to generate F reinforcing signals Ei,
The arrangement means arranges the F reinforcement signals Ei generated by the reinforcement signal decoding means in F areas Di indicated by the object area information generated by the object detection means, and generates a reinforcement image. An image decoding apparatus characterized by that.
請求項に記載の画像復号装置において、
さらに、前記縮小画像復号手段により生成された縮小画像を画面表示する表示手段を備え、
前記表示手段は、ユーザの操作に従って、前記加算手段により出力された加算後の画像から、前記オブジェクト検出手段により生成されたオブジェクト領域情報の示す領域の画像を切り出し、画面表示する、ことを特徴とする画像復号装置。
The image decoding device according to claim 3 ,
Furthermore, a display means for displaying the reduced image generated by the reduced image decoding means on the screen,
The display means cuts out an image of an area indicated by the object area information generated by the object detection means from a post-addition image output by the addition means according to a user operation, and displays the image on a screen. An image decoding device.
コンピュータを、請求項に記載の画像符号化装置として機能させるための画像符号化プログラム。 An image encoding program for causing a computer to function as the image encoding apparatus according to claim 1 . コンピュータを、請求項からまでのいずれか一項に記載の画像復号装置として機能させるための画像復号プログラム。 Image decoding program for a computer to function as the image decoding apparatus according to any one of claims 2 to 6.
JP2009285609A 2009-12-16 2009-12-16 Image encoding apparatus, image decoding apparatus, and program Expired - Fee Related JP5308322B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009285609A JP5308322B2 (en) 2009-12-16 2009-12-16 Image encoding apparatus, image decoding apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009285609A JP5308322B2 (en) 2009-12-16 2009-12-16 Image encoding apparatus, image decoding apparatus, and program

Publications (2)

Publication Number Publication Date
JP2011130114A JP2011130114A (en) 2011-06-30
JP5308322B2 true JP5308322B2 (en) 2013-10-09

Family

ID=44292230

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009285609A Expired - Fee Related JP5308322B2 (en) 2009-12-16 2009-12-16 Image encoding apparatus, image decoding apparatus, and program

Country Status (1)

Country Link
JP (1) JP5308322B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10257505A (en) * 1997-01-10 1998-09-25 Matsushita Electric Ind Co Ltd Image processing method, image processing unit and data recording medium
JP2003150964A (en) * 2001-11-15 2003-05-23 Canon Inc Image processing device and image processing method

Also Published As

Publication number Publication date
JP2011130114A (en) 2011-06-30

Similar Documents

Publication Publication Date Title
US12155834B2 (en) Motion compensation and motion estimation leveraging a continuous coordinate system
KR102525578B1 (en) Method and Apparatus for video encoding and Method and Apparatus for video decoding
JP5727873B2 (en) Motion vector detection device, encoding device, and program thereof
JP5529293B2 (en) A method for edge enhancement for time scaling with metadata
US8718132B2 (en) Video encoding apparatus, video decoding apparatus, and method
US7881539B2 (en) Image processing apparatus and method, program recording medium, and program
JP2016522588A (en) Multi-format high dynamic range video delivery using hierarchical coding
KR102436512B1 (en) Method and Apparatus for video encoding and Method and Apparatus for video decoding
JP2014171097A (en) Encoder, encoding method, decoder, and decoding method
US8514932B2 (en) Content adaptive and art directable scalable video coding
KR102166337B1 (en) Apparatus and method for performing artificial intelligence encoding and artificial intelligence decoding of image
JP4552261B2 (en) Digital information conversion apparatus and method, and image information conversion apparatus and method
KR101710883B1 (en) Apparatus and method for compressing and restoration image using filter information
JP5308322B2 (en) Image encoding apparatus, image decoding apparatus, and program
JP4470280B2 (en) Image signal processing apparatus and image signal processing method
JP2009048487A (en) Image processor and image processing program
KR101711650B1 (en) Apparatus and method for converting image in an image processing system
US20060067403A1 (en) Information processing device and information processing method
JP4232496B2 (en) Image processing method, image processing apparatus, and image processing program
US7421131B2 (en) System and method for block truncation-type compressed domain image processing
JP4099555B2 (en) Image information converter
JP4123587B2 (en) Image information processing apparatus and method
JP3587188B2 (en) Digital image signal processing apparatus and processing method
JP4552263B2 (en) Digital signal processing apparatus and method, and digital image signal processing apparatus and method
JP4099554B2 (en) Image information conversion apparatus and image information conversion method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130325

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130628

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5308322

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees