[go: up one dir, main page]

JP2005260464A - Image encoding device, image decoding device, image encoding method, image decoding method, image encoding program, image decoding program, image encoding program recording medium, and image decoding program recording medium - Google Patents

Image encoding device, image decoding device, image encoding method, image decoding method, image encoding program, image decoding program, image encoding program recording medium, and image decoding program recording medium Download PDF

Info

Publication number
JP2005260464A
JP2005260464A JP2004067381A JP2004067381A JP2005260464A JP 2005260464 A JP2005260464 A JP 2005260464A JP 2004067381 A JP2004067381 A JP 2004067381A JP 2004067381 A JP2004067381 A JP 2004067381A JP 2005260464 A JP2005260464 A JP 2005260464A
Authority
JP
Japan
Prior art keywords
image
information
encoding
unit
current frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004067381A
Other languages
Japanese (ja)
Inventor
Hideaki Kimata
英明 木全
Masaki Kitahara
正樹 北原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2004067381A priority Critical patent/JP2005260464A/en
Publication of JP2005260464A publication Critical patent/JP2005260464A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】画面を複数の領域に分割した場合の画面の端の領域の符号化や高解像度の画像を複数の領域に分割する符号化などにおいて符号化効率を向上させる。
【解決手段】予測モード探索部13は,予測画像を作成する際に使用する画像情報を定める複数のパターンに対応する予測モードの中から参照フレームと現フレーム間の幾何学情報に従って予測モードを探索し決定する。予測画像作成部15は,決定された予測モードに従って前記幾何学情報を用いて予測画像を作成し,差分符号化部16は,入力画像情報と予測画像との差分を符号化する。予測モード符号化部14は,予測モードを符号化する。
【選択図】図7
Coding efficiency is improved in coding of a region at the end of the screen when the screen is divided into a plurality of regions, coding for dividing a high-resolution image into a plurality of regions, and the like.
A prediction mode search unit searches for a prediction mode in accordance with geometric information between a reference frame and a current frame from prediction modes corresponding to a plurality of patterns that define image information used when creating a prediction image. And decide. The predicted image creation unit 15 creates a predicted image using the geometric information according to the determined prediction mode, and the difference encoding unit 16 encodes the difference between the input image information and the predicted image. The prediction mode encoding unit 14 encodes the prediction mode.
[Selection] Figure 7

Description

本発明は,フレーム間予測符号化方式を用いた複数フレームの画像符号化に関する技術である。   The present invention is a technique related to image coding of a plurality of frames using an inter-frame predictive coding method.

一般的に動画像符号化では,時間方向の相関を使って高い符号化効率を実現するため,フレーム間予測符号化を用いている。フレームの符号化モードには,フレーム間の相関を使わずに符号化するIフレームと,過去に符号化した1フレームから予測するPフレームと,過去に符号化した2フレームから予測することができるBフレームとがある。   In general, in moving picture coding, inter-frame prediction coding is used in order to achieve high coding efficiency using temporal correlation. The frame encoding mode can be predicted from an I frame that is encoded without using correlation between frames, a P frame that is predicted from one previously encoded frame, and two previously encoded frames. There are B frames.

Bフレームでは,参照画像メモリに2フレーム分の復号画像を蓄積しておく必要がある。特に映像符号化方式H.263とH.264では,参照画像メモリに2フレーム以上の複数フレーム分の復号画像を蓄積しておき,その参照画像メモリから参照画像を選択して予測することができる。   In the B frame, it is necessary to store the decoded image for two frames in the reference image memory. In particular, video encoding system H.264. H.263 and H.H. In H.264, decoded images of two or more frames are accumulated in a reference image memory, and a reference image can be selected and predicted from the reference image memory.

参照画像はブロックごとに選択することができ,参照画像を指定する参照画像指定情報を符号化する。参照画像メモリには,短時間用(STRM)と長時間用(LTRM)があり,STRMには現フレームの復号画像を蓄積していき,LTRMにはSTRMに蓄積されている画像を選択して蓄積する。LTRMとSTRMの制御方法について記載した文献としては,例えば下記の非特許文献1が挙げられる。   A reference image can be selected for each block, and reference image designation information for designating a reference image is encoded. The reference image memory has a short time (STRM) and a long time (LTRM). The decoded image of the current frame is stored in the STRM, and the image stored in the STRM is selected in the LTRM. accumulate. As a document describing the control method of LTRM and STRM, for example, the following Non-Patent Document 1 can be cited.

参照画像指定情報としては,H.263 Annex NのようにTR(Temporal Reference)を用いる手法や,H.263 Annex UやH.264のように,別途indexを定義する手法が提案されている。   Reference image designation information includes H.264. A method using TR (Temporal Reference) such as H.263 Annex N, H.264 H.263 Annex U or H.264. As in H.264, a method for separately defining an index has been proposed.

TRは,MPEG−1,MPEG−2やH.261,H.263といった国際標準動画像符号化で採用されている各フレームの出力時刻の情報であり,フレームごとに固定長符号化される。システムで基準となる時間間隔を予め設定しておき,その時間間隔とTRの積でシーケンス先頭からの時刻を示す。エンコーダでは,入力画像の時刻情報をTRに設定して各フレームを符号化し,デコーダでは,各フレームの復号画像をTRで指定された時刻に出力する。   TR is MPEG-1, MPEG-2 and H.264. 261, H.M. This is information on the output time of each frame employed in international standard video encoding such as H.263, and is fixed-length encoded for each frame. A reference time interval is set in advance in the system, and the time from the beginning of the sequence is indicated by the product of the time interval and TR. The encoder sets time information of the input image to TR to encode each frame, and the decoder outputs the decoded image of each frame at the time specified by TR.

このTRを用いる場合には,TRは一般的に固定長で符号化されるため参照画像指定情報の発生頻度を反映しておらず,符号化効率が悪い。別途indexを用いる手法では,indexを例えば可変長符号化することにより,参照画像指定情報の発生頻度を反映してエントロピー符号化を行うことができる。   When this TR is used, since the TR is generally encoded with a fixed length, it does not reflect the occurrence frequency of the reference image designation information, and the encoding efficiency is poor. In a method using an index separately, entropy encoding can be performed by reflecting the frequency of occurrence of reference image designation information by, for example, variable-length encoding the index.

また,特に静止画像の場合,現フレームの既に復号した画像情報を使って予測画像を作成して残差信号を符号化するイントラ予測符号化もある。   In particular, in the case of a still image, there is intra prediction encoding in which a prediction image is created using image information already decoded in the current frame and a residual signal is encoded.

図18は,JPEG−LSにおける予測に使用する画素位置の例を示す図である。例えばJPEG−LSでは,図18に示すような符号化対象画素の周辺の画像情報から予測画像を作成する。図18において,画素xの予測画像は,画素a,b,c,dの復号画像から作成される。   FIG. 18 is a diagram illustrating an example of pixel positions used for prediction in JPEG-LS. For example, in JPEG-LS, a predicted image is created from image information around an encoding target pixel as shown in FIG. In FIG. 18, the predicted image of pixel x is created from the decoded images of pixels a, b, c, and d.

図19は,H.264におけるイントラ予測の例を示す図である。H.264のイントラ予測では,周囲のブロックの復号画像から予測画像を作成する手法が採用されている。このようなイントラ予測では,予測画像を作成する方法が複数モードあり,最も符号化効率のよいモードを探索し,そのモード情報も符号化する。図19において,a,b,…,pは現ブロックの画素を示し,A,B,…,Qは既に復号された画素を示す。図19に示した矢印に載る画素位置の予測画像は,画素D,E,Fの画像情報から作成される。   FIG. 2 is a diagram illustrating an example of intra prediction in H.264. H. In the H.264 intra prediction, a method of creating a predicted image from decoded images of surrounding blocks is employed. In such intra prediction, there are a plurality of modes for creating a predicted image, a mode with the highest coding efficiency is searched, and the mode information is also coded. 19, a, b,..., P indicate the pixels of the current block, and A, B,..., Q indicate already decoded pixels. The predicted image at the pixel position placed on the arrow shown in FIG. 19 is created from the image information of the pixels D, E, and F.

図20は,内挿補間の例を示す図である。図19のように外挿補間により予測画像を作成するのではなく,図20に示すように,まだ符号化されていない画素位置の画像情報を用い,その画像情報と既に符号化され復号されている画像情報との補間により,予測画像を作成する内挿補間手法も提案されている(例えば,非特許文献2参照)。この場合,符号化されていない位置の画像情報と,予測方法とを探索して決定する。この場合には,符号化されていない位置の画像情報と,予測モードと予測残差とが符号化される。もっとも,まだ符号化されていない位置の画像情報も,既に符号化され復号された画像情報から予測画像を作成して,その予測残差を符号化するようにしてもよい。   FIG. 20 is a diagram illustrating an example of interpolation. Instead of creating a predicted image by extrapolation as shown in FIG. 19, as shown in FIG. 20, image information at pixel positions that have not yet been encoded is used and the image information is already encoded and decoded. An interpolation method for creating a predicted image by interpolation with existing image information has also been proposed (see, for example, Non-Patent Document 2). In this case, the image information at the uncoded position and the prediction method are searched and determined. In this case, the image information at the uncoded position, the prediction mode, and the prediction residual are encoded. Of course, it is also possible to create a prediction image from image information that has already been encoded and decoded for image information at a position that has not yet been encoded, and encode the prediction residual.

これらの内挿補間と外挿補間との違いは,予測される順序が異なるだけである。基本的には,どちらも現フレーム内の画像情報を使って予測する。一般的に,内挿補間の方が外挿補間よりも予測に使用する画像情報を多く選択できるため,予測効率は高い。   The only difference between these interpolations and extrapolations is the predicted order. Basically, both are predicted using the image information in the current frame. In general, the interpolation efficiency is higher in the prediction efficiency because the image information used for the prediction can be selected more than in the interpolation interpolation.

他方,超広角カメラを使って撮影される全方位映像がある。全方位映像の符号化方法としては,全方位映像を一度3次元ポリゴンの表面にマッピングし,さらに全ポリゴン平面を矩形の2次元画像にマッピングして,2次元映像として符号化する手法が提案されている。   On the other hand, there are omnidirectional images that are shot using an ultra-wide-angle camera. As a method for encoding an omnidirectional video, a method has been proposed in which an omnidirectional video is once mapped onto the surface of a three-dimensional polygon, and further, an all-polygon plane is mapped to a rectangular two-dimensional image and encoded as a two-dimensional video. ing.

図21は,全方位映像の8面体への投影の例を示す図である。3次元ポリゴンの形状は任意であるが,例えば,非特許文献3では,図21に示すような8面体を用いる手法が提案されている。図21(a)に示すような8面体に投影された全方位映像から,図21(b)に示すような上の四角錐の画像と下の四角錐の画像とが作成され,再配列により,図21(c)に示すような全方位映像を1つの矩形画面にマッピングした画像が作成される。   FIG. 21 is a diagram illustrating an example of projection of an omnidirectional video onto an octahedron. Although the shape of the three-dimensional polygon is arbitrary, for example, Non-Patent Document 3 proposes a method using an octahedron as shown in FIG. From the omnidirectional image projected on the octahedron as shown in FIG. 21A, an image of the upper quadrangular pyramid and an image of the lower quadrangular pyramid as shown in FIG. 21B are created and rearranged. , An image in which an omnidirectional video as shown in FIG. 21C is mapped onto one rectangular screen is created.

これらの方式では全方位の映像を1つの矩形の画面にマッピングしているが,複数の画面にマッピングしてもよい。例えば8面体の場合には,上の四角錐からの画像情報を1つの画面として,下の四角錐からの画像情報を1つの画面として,合計2画面の画像情報として扱ってもよい。このようにすれば,全方位の映像を1つの画面にマッピングする手法よりも低い空間解像度の画像を複数持つ構成にすることが可能である。復号側では,低い解像度の画面にすれば,画面全体の画像情報を復号するための時間が少なくなり,より早く再生画面の表示が可能となる利点がある。   In these methods, an omnidirectional video is mapped to one rectangular screen, but may be mapped to a plurality of screens. For example, in the case of an octahedron, image information from the upper quadrangular pyramid may be handled as one screen, and image information from the lower quadrangular pyramid may be handled as one screen, and may be handled as a total of two screens of image information. In this way, it is possible to have a configuration having a plurality of images having a lower spatial resolution than the method of mapping an omnidirectional video on one screen. On the decoding side, if the screen has a low resolution, there is an advantage that the time for decoding the image information of the entire screen is reduced and the playback screen can be displayed more quickly.

このような複数の画面で構成される画像を画面ごとに個別に符号化してもよいし,各画面を1つの映像の個々のフレームに対応させて1つの映像として符号化してもよい。これらの映像は,1つの映像中で1フレームおきに符号化してもよい。フレームごとに,時刻情報TRの他に,もともとどの映像に属していたのかを示すカテゴリ情報を符号化しておく。   Such an image composed of a plurality of screens may be individually encoded for each screen, or each screen may be encoded as one video in association with each frame of one video. These videos may be encoded every other frame in one video. For each frame, in addition to the time information TR, category information indicating which video originally belonged is encoded.

図22は,全方位映像の立方体への投影の例を示す図である。全方位映像を投影する多面体は,図21に示すような8面体に限らず,例えば図22に示すような立方体でもよい。映像S1の裏側に映像S6があり,映像S2の裏側に映像S5があり,映像S3の裏側に映像S4があるものとする。このような幾何学情報の関係がある場合に,映像S1から映像S6までをまとめて1つの映像として符号化してもよい。これらの映像は,1つの映像中で1フレームおきに符号化していく。フレームごとに,時刻情報TRの他に,もともと映像S1から映像S6までのいずれの映像なのかを示すカテゴリ情報を符号化しておく。   FIG. 22 is a diagram illustrating an example of projection of an omnidirectional video onto a cube. The polyhedron for projecting the omnidirectional video is not limited to the octahedron as shown in FIG. 21, but may be a cube as shown in FIG. Assume that there is a video S6 on the back side of the video S1, a video S5 on the back side of the video S2, and a video S4 on the back side of the video S3. When there is such a geometric information relationship, the video S1 to the video S6 may be collectively encoded as one video. These videos are encoded every other frame in one video. For each frame, in addition to the time information TR, category information indicating which video is originally from the video S1 to the video S6 is encoded.

また,高解像度の画像の符号化については,この画面を複数の領域に分割して個々の分割領域を符号化する手法がある。   As for high-resolution image encoding, there is a method of encoding each divided region by dividing the screen into a plurality of regions.

図23は,高解像度画像の画面分割の例を示す図である。例えば,図23に示すように画面を縦方向に2分割する手法がある。この分割手法は,例えば解像度が大きくて復号するための演算処理時間が多くかかる場合に,領域ごとに復号器を備えることによって演算時間を短縮するために利用されたり,または,符号化データを伝送する場合の伝送エラーからの回復に利用される。   FIG. 23 is a diagram illustrating an example of screen division of a high resolution image. For example, as shown in FIG. 23, there is a method of dividing the screen into two in the vertical direction. This division method is used to shorten the computation time by providing a decoder for each area, for example, when the resolution is high and it takes a lot of computation time to decode, or to transmit encoded data This is used to recover from transmission errors.

なお,後述する本発明の実施の形態に利用される技術が記載されている文献としては,非特許文献4,非特許文献5,非特許文献6などがある。
Thomas Wiegand, Xiaozheng Zhang, and Bernd Girod, “Long-Term Memory Motion-Compensated Prediction,”IEEE Transactions on Circuits and Systems for Video Technology,vol.9 ,no.1,pp.70-84,Feb.1999 羽鳥:“帰還差分量子化を用いた画像信号の内挿予測符号化,”信学論vol.J66-B ,no.5,pp.599-606,May 1983 “Report on 3DAV Exploration,”N5878 ,ISO/IEC JTC1/SC29/WG11(MPEG),2003 上倉一人,渡辺裕,小林直樹,一之瀬進,安田浩,“演算量低減を考慮したグローバル動き・輝度変化補償動画像符号化,”信学論(B),vol.J82-B ,no.9,pp.1676-1688,1999 Hideaki Kimata, Masaki Kitahara, and Yoshiyuki Yashima, “RECURSIVELY WEIGHTING PIXEL DOMAIN INTRA PREDICTION ON H.264, ”SPIE Visual Communication and Image Processing 2003 (VCIP),vol.5150, pp.2035-2042,2001 Marta Karczewicz,Jani Lainema,Joni Vahteri and Bogdan Dobrin,“Nokia MVC H.26L Proposal Description,”ITU-T SG16 Q.6 document Q15-J-19,May, 2000
Note that there are Non-Patent Document 4, Non-Patent Document 5, Non-Patent Document 6, and the like as documents describing techniques used in the embodiments of the present invention described later.
Thomas Wiegand, Xiaozheng Zhang, and Bernd Girod, “Long-Term Memory Motion-Compensated Prediction,” IEEE Transactions on Circuits and Systems for Video Technology, vol.9, no.1, pp.70-84, Feb.1999 Hatori: “Interpolation prediction coding of image signals using feedback difference quantization,” IEICE vol.J66-B, no.5, pp.599-606, May 1983 “Report on 3DAV Exploration,” N5878, ISO / IEC JTC1 / SC29 / WG11 (MPEG), 2003 Hitoshi Uekura, Hiroshi Watanabe, Naoki Kobayashi, Susumu Ichinose, Hiroshi Yasuda, “Global Motion / Brightness Change Compensated Video Coding Considering Computational Complexity,” IEICE Theory (B), vol.J82-B, no.9 , Pp.1676-1688, 1999 Hideaki Kimata, Masaki Kitahara, and Yoshiyuki Yashima, “RECURSIVELY WEIGHTING PIXEL DOMAIN INTRA PREDICTION ON H.264,” SPIE Visual Communication and Image Processing 2003 (VCIP), vol.5150, pp.2035-2042, 2001 Marta Karczewicz, Jani Lainema, Joni Vahteri and Bogdan Dobrin, “Nokia MVC H.26L Proposal Description,” ITU-T SG16 Q.6 document Q15-J-19, May, 2000

画面を領域に分割してイントラ予測を行う符号化では,領域内の画像情報と予測画像との間の差分(予測残差)が少ないと符号化効率が高くなるため,このような予測符号化モードを探索し,決定する。   In coding that divides the screen into regions and performs intra prediction, coding efficiency increases when the difference (prediction residual) between image information in the region and the predicted image is small. Search and determine the mode.

従来のイントラ予測符号化では,現フレームの既に符号化され復号された画像情報を使って予測画像を作成している。そのため,画面の端の部分では,既に符号化され復号されている部分が限定されており,予測方法が限定される問題があった。また,高解像度の画像を複数の領域に分割して符号化する場合においては,個々の分割領域は個別に符号化していたため,符号化効率が低減する問題があった。   In the conventional intra prediction encoding, a prediction image is created using image information of the current frame that has already been encoded and decoded. Therefore, in the end portion of the screen, the portion that has already been encoded and decoded is limited, and there is a problem that the prediction method is limited. In addition, when a high-resolution image is divided into a plurality of regions and encoded, there is a problem that the encoding efficiency is reduced because each divided region is individually encoded.

本発明は,上記の問題点を解決し,画面を複数の領域に分割した場合の画面の端の領域の符号化や高解像度の画像を複数の領域に分割する符号化などにおいて,符号化効率を向上させることを目的とする。   The present invention solves the above-mentioned problems, and in the encoding of the area at the end of the screen when the screen is divided into a plurality of areas, the encoding efficiency for dividing a high resolution image into a plurality of areas, etc. It aims at improving.

上記課題を解決するため,本発明の画像符号化装置は,参照画像を蓄積しておき,現フレームを分割した領域内の画像情報を,フレーム間予測符号化を用いて符号化する画像符号化装置であって,複数フレームの参照画像を蓄積する参照画像メモリと,予め設定された参照フレームと現フレーム間の幾何学情報を用いて,参照フレームの画像情報と現フレームの画像情報とから現フレームの予測画像を作成する予測画像作成部と,前記現フレームを分割した領域内の画像情報と予測画像の差分を符号化する差分符号化部とを備えることを特徴とする。   In order to solve the above problems, an image coding apparatus according to the present invention accumulates a reference image and encodes image information in an area obtained by dividing the current frame using inter-frame prediction coding. The apparatus uses a reference image memory for storing a reference image of a plurality of frames, and geometric information between a reference frame and a current frame that are set in advance, based on the image information of the reference frame and the image information of the current frame. A prediction image generation unit that generates a prediction image of a frame, and a difference encoding unit that encodes a difference between the image information in the region into which the current frame is divided and the prediction image are provided.

また,本発明の画像復号装置は,参照画像を蓄積しておき,現フレームを分割した領域内の画像情報を,フレーム間予測符号化を用いて復号する画像復号装置であって,複数フレームの参照画像を蓄積する参照画像メモリと,差分画像情報を復号する差分復号部と,予め設定された参照フレームと現フレーム間の幾何学情報を用いて,参照フレームの画像情報と現フレームの画像情報とから現フレームの予測画像を作成する予測画像作成部と,予測画像と差分画像情報とから復号画像を作成する復号画像作成部とを備えることを特徴とする。   An image decoding apparatus according to the present invention is an image decoding apparatus that accumulates reference images and decodes image information in an area obtained by dividing a current frame using inter-frame prediction encoding, and includes a plurality of frames. The reference frame image information and the current frame image information are stored using a reference image memory for storing the reference image, a difference decoding unit for decoding the difference image information, and geometric information between the preset reference frame and the current frame. And a decoded image generating unit that generates a decoded image from the predicted image and the difference image information.

これにより,異なる撮影地点や撮影方向のカメラで撮影された複数の画像を複数のフレームとみなして符号化する場合について,既に符号化され復号されたフレーム(参照フレーム)の画像情報と,現フレームで既に符号化され復号された画素位置の画像情報とから予測画像を作成することができる。   Thus, when encoding a plurality of images taken by cameras at different shooting points and shooting directions as a plurality of frames, the image information of the already encoded and decoded frame (reference frame) and the current frame are encoded. The prediction image can be created from the image information of the pixel position that has already been encoded and decoded.

例えば,図21に示すような画像で領域D1からD4までの画像を符号化する際に,領域U1からU4までの画像が既に符号化され復号されているとすると,これらの画像情報を図19の画素AからPまでのいずれかとみなすことにより,図19に示すような予測画像の作成を行うことができる。   For example, when the images from the regions D1 to D4 are encoded with the images as shown in FIG. 21, if the images from the regions U1 to U4 are already encoded and decoded, the image information is shown in FIG. By considering any one of the pixels A to P, a predicted image as shown in FIG. 19 can be created.

また,例えば,図23に示すように画面を分割する場合には,先に下の部分の画像を符号化して復号しておき,これを参照フレームとすれば,図23の上の部分の画像情報について予測画像を作成する際に,下の部分の画像情報(参照フレーム)を使用することが可能となる。したがって,上の部分で既に符号化され復号された画像情報があるとすると,図20に示すような内挿補間と同じになり,予測効率を向上することができる。なお,分割する目的が演算量の分散であるならば,上の部分で2ライン目を符号化する場合には既に下の部分の1ライン目を復号済みであるため,予測に使用することが可能である。   Also, for example, when the screen is divided as shown in FIG. 23, if the lower part of the image is first encoded and decoded and this is used as a reference frame, the upper part of FIG. When creating a predicted image for information, it is possible to use the image information (reference frame) in the lower part. Therefore, if there is already encoded and decoded image information in the upper part, it becomes the same as the interpolation shown in FIG. 20, and the prediction efficiency can be improved. If the purpose of the division is to distribute the amount of computation, when the second line is encoded in the upper part, the first line in the lower part has already been decoded, so that it can be used for prediction. Is possible.

参照フレーム内から予測に使用する画素の位置を選択する際に,参照フレームと現フレームとの間の幾何学情報を使用する。上記の例のように,参照フレームの端の画像情報を使用してもよいし,参照フレーム内部の画像情報を使用してもよい。   Geometric information between the reference frame and the current frame is used when selecting a pixel position to be used for prediction from within the reference frame. As in the above example, image information at the end of the reference frame may be used, or image information inside the reference frame may be used.

図1は,複数カメラからの映像の例を示す図である。例えば,図1(a)に示すような幾何学情報の関係があるカメラAとカメラBの画像(図1(b))の場合には,カメラAの画像(参照フレーム)内部(位置X)の画像情報と,カメラBの画像(現フレーム)の画像情報とを使って予測画像を作成する。図1(b)において,カメラAの画像の位置Xは,カメラBの画像の左端に相当する。   FIG. 1 is a diagram illustrating an example of images from a plurality of cameras. For example, in the case of an image of camera A and camera B (FIG. 1B) having a geometric information relationship as shown in FIG. 1A, the inside of the image (reference frame) of camera A (position X) And the image information of the image of the camera B (current frame) are used to create a predicted image. In FIG. 1B, the position X of the image of the camera A corresponds to the left end of the image of the camera B.

また,この発明を動画像に適用してもよい。例えば,図21に示した各領域が動画像を構成している場合には,現フレームの予測画像を作成するにあたり,より多くの参照フレームから候補を選択することが可能となる。また,これは特にカメラ撮像系が移動する場合に有効である。   Further, the present invention may be applied to moving images. For example, when each region shown in FIG. 21 forms a moving image, it is possible to select candidates from more reference frames when creating a predicted image of the current frame. This is particularly effective when the camera imaging system moves.

図2は,カメラが移動した場合の予測画像作成の例を示す図である。図2(a)に示すように,1つのカメラの位置が移動(位置A→位置B)した場合の手順を示す。この場合,1つの映像の中の,異なる時刻の参照フレームの画像情報と,現時刻のフレームの画像情報とから予測画像を作成することとなる。各時刻における映像の幾何学情報を測定しておき,図2(b)に示すように,参照フレームと現フレームとの間の幾何学情報を決定する。フレームごとに,時刻情報TRの他に,このような幾何学情報を符号化しておく。図2(b)において,位置Aの画像の位置Xは,位置Bの画像の左端に相当する。   FIG. 2 is a diagram illustrating an example of creating a predicted image when the camera moves. As shown in FIG. 2A, a procedure when the position of one camera is moved (position A → position B) is shown. In this case, a predicted image is created from image information of reference frames at different times and image information of frames at the current time in one video. The geometric information of the video at each time is measured, and the geometric information between the reference frame and the current frame is determined as shown in FIG. In addition to the time information TR, such geometric information is encoded for each frame. In FIG. 2B, the position X of the image at the position A corresponds to the left end of the image at the position B.

なお,このように予測画像の作成に使用した参照フレームの画像情報と,現フレームでの符号化対象位置の復号画像との間で,適切なフィルタを適用してもよい。このフィルタの処理により,参照フレームと現フレームとの間の歪が平均化され,主観的な品質を向上することができる。   Note that an appropriate filter may be applied between the image information of the reference frame used to create the predicted image and the decoded image at the encoding target position in the current frame. By this filter processing, distortion between the reference frame and the current frame is averaged, and subjective quality can be improved.

また,参照フレームから使用する画像情報を選択した後に,この画像情報の値を計算により変更し,それから使用するようにしてもよい。例えば,参照フレームと現フレームとの間で平均的な画素値が異なっている場合には,画素値を例えば非特許文献4の手法によって修正した後に使用するようにしてもよい。   Further, after selecting image information to be used from the reference frame, the value of this image information may be changed by calculation and then used. For example, when the average pixel value is different between the reference frame and the current frame, the pixel value may be used after being corrected by the method of Non-Patent Document 4, for example.

なお,ロスレス符号化の場合には,既に符号化され復号された画像情報を参照フレームにするのではなく,参照フレームの原画像を使用してもよい。   In the case of lossless coding, the original image of the reference frame may be used instead of using the already encoded and decoded image information as the reference frame.

画像間の幾何学情報は,撮像系を構築した際に予め測定したものを用いてもよいし,カメラ撮像系が移動する場合には,そのカメラ撮像系の位置情報の移動量を用いてもよい。この位置情報をGPS等を用いて計測することも可能である。特に,動画像において撮像系が固定の場合には,幾何学情報を毎フレーム符号化する必要はなく,予め設定しておいてもよい。   Geometric information between images may be measured in advance when the imaging system is constructed, or if the camera imaging system moves, the movement amount of the position information of the camera imaging system may be used. Good. It is also possible to measure this position information using GPS or the like. In particular, when the imaging system is fixed in a moving image, the geometric information need not be encoded every frame, and may be set in advance.

幾何学情報が時間と共に変化する場合には,幾何学情報も符号化して符号化データに含めておき,復号側でその情報を使用することも可能である。幾何学情報を符号化する場合には,
・カメラの位置情報,
・絶対座標系における映像の位置情報,
・映像の相対的な位置情報,
のいずれかを符号化対象としてよい。
When the geometric information changes with time, the geometric information can be encoded and included in the encoded data, and the information can be used on the decoding side. When encoding geometric information,
・ Camera position information,
-Image position information in the absolute coordinate system,
・ Relative position information of video,
Any of the above may be the encoding target.

特に,カメラが移動する場合には,相対的な位置情報が好適である。映像の相対的な位置情報としては,画面間の移動量を利用する方法も好適である。   In particular, when the camera moves, relative position information is suitable. A method using the amount of movement between screens is also suitable as the relative position information of the video.

図3は,2画面間の位置関係の表現方法の例を示す図である。例えば,図3に示すように,画面Aと画面Bがあるとすると,これらの相対的な位置情報は,画面Bの四隅の画素の位置を基準とする画面Aの四隅の画素の位置情報,すなわち(x1,y1),(x2,y2),(x3,y3),(x4,y4)という位置情報で表現してもよい。   FIG. 3 is a diagram illustrating an example of a method for expressing the positional relationship between two screens. For example, as shown in FIG. 3, if there are a screen A and a screen B, the relative position information thereof includes the position information of the four corner pixels of the screen A based on the positions of the four corner pixels of the screen B, That is, it may be expressed by positional information of (x1, y1), (x2, y2), (x3, y3), (x4, y4).

また,現フレームの符号化効率が最も高くなるように,画像情報から幾何学情報を推定してもよい。幾何学情報を符号化データに含めてもよく,この場合には,符号化データ中の幾何学情報を使用して,参照フレームから使用する画像情報を選択する。   Further, the geometric information may be estimated from the image information so that the encoding efficiency of the current frame is the highest. Geometric information may be included in the encoded data. In this case, image information to be used is selected from the reference frame using the geometric information in the encoded data.

本発明によれば,広角カメラの映像や複数のカメラからの映像,または移動しているカメラからの映像を符号化する場合に,参照フレームと現フレームとの間の幾何学情報を用いて,別のカメラからの画像または過去の画像の復号画像と,現フレームの復号画像とから予測画像を作成することにより,符号化効率を向上することができる。   According to the present invention, when encoding video from a wide-angle camera, video from a plurality of cameras, or video from a moving camera, using geometric information between the reference frame and the current frame, Coding efficiency can be improved by creating a predicted image from a decoded image of an image from another camera or a past image and a decoded image of the current frame.

以下,本発明の実施の形態について,図を用いて説明する。まず,本発明の実施の形態における予測画像の作成ついて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. First, creation of a predicted image in the embodiment of the present invention will be described.

図4は,本実施の形態の予測画像の作成に使用する画素の位置の例を示す図である。本実施の形態における予測画像の作成では,縦横16画素のマクロブロックについて,図4(A)〜(O)に示す配置の画像情報を用いて予測画像を作成する。図4(A)〜(D)は,上下左右のいずれか1方向の画像情報を用いて予測画像を作成する場合の例を示し,図4(E)〜(J)は,上下左右のいずれか2方向の画像情報を用いて予測画像を作成する場合の例を示し,図4(K)〜(N)は,上下左右のいずれか3方向の画像情報を用いて予測画像を作成する場合の例を示し,図4(O)は,上下左右のすべての方向の画像情報を用いて予測画像を作成する場合の例を示している。   FIG. 4 is a diagram illustrating an example of pixel positions used for creating a predicted image of the present embodiment. In the creation of a predicted image in the present embodiment, a predicted image is created using image information having the arrangement shown in FIGS. 4A to 4O for macroblocks of 16 pixels in length and width. FIGS. 4A to 4D show examples in the case where a predicted image is created using image information in one of the upper, lower, left and right directions, and FIGS. FIGS. 4K to 4N show an example of creating a predicted image using image information in any one of three directions (up, down, left, and right). FIG. 4 (O) shows an example in which a predicted image is created using image information in all directions of up, down, left, and right.

図5は,現マクロブロックの周囲画素の位置関係を示す図である。図5に示すように,現マクロブロック(このときに予測画像の作成対象となっているマクロブロック)の上に配置されている画素を p1[i](i=1,…,16),左に配置されている画素を p2[j](j=1,…,16),右に配置されている画素を p3[j](j=1,…,16),下に配置されている画素を p4[i](i=1,…,16)とする。   FIG. 5 is a diagram showing the positional relationship of the surrounding pixels of the current macroblock. As shown in FIG. 5, the pixels arranged on the current macroblock (the macroblock that is the target for creating the predicted image at this time) are represented by p1 [i] (i = 1,..., 16), left P2 [j] (j = 1,..., 16), the pixel arranged on the right is p3 [j] (j = 1,..., 16), and the pixel arranged below P4 [i] (i = 1,..., 16).

本実施の形態では,これらの画素を使い,次に示すパターンの予測モードのいずれかを適用して,マクロブロック内画素 q[j][i](i,j=1,…,16)を求める。ただし,iは横方向の位置を示し,jは縦方向の位置を示す。また,Σk は,Σk 以下に続く式のkが1から16までの総和を示す。 In the present embodiment, these pixels are used, and any one of the following pattern prediction modes is applied, and the pixels in macroblock q [j] [i] (i, j = 1,..., 16) are Ask. However, i shows the position of a horizontal direction and j shows the position of a vertical direction. In addition, Σ k represents the total sum from 1 to 16 in the equation following Σ k .

○パターン1
使用する画素:図4(A)
予測画像の作成式:
q[j][i] =p2[j] (1).
○パターン2
使用する画素:図4(B)
予測画像の作成式:
q[j][i] =p1[i] (2).
○パターン3
使用する画素:図4(C)
予測画像の作成式:
q[j][i] =p3[j] (3).
○パターン4
使用する画素:図4(D)
予測画像の作成式:
q[j][i] =p4[i] (4).
○パターン5
使用する画素:図4(E)
予測画像の作成式:
q[j][i] =(Σk (p1[k] +p2[k] ))/32 (5).
○パターン6
使用する画素:図4(F)
予測画像の作成式:
q[j][i] =(Σk (p1[k] +p3[k] ))/32 (6).
○パターン7
使用する画素:図4(G)
予測画像の作成式:
q[j][i] =(Σk (p4[k] +p3[k] ))/32 (7).
○パターン8
使用する画素:図4(H)
予測画像の作成式:
q[j][i] =(Σk (p4[k] +p2[k] ))/32 (8).
○パターン9
使用する画素:図4(I)
予測画像の作成式:
q[j][i] =(p1[i] +p4[i] )/2 (9).
○パターン10
使用する画素:図4(J)
予測画像の作成式:
q[j][i] =(p2[j] +p3[j] )/2 (10).
○パターン11
使用する画素:図4(K)
予測画像の作成式:
q[j][i] =(Σk (p1[k] +p2[k] +p4[k] ))/48 (11).
○パターン12
使用する画素:図4(L)
予測画像の作成式:
q[j][i] =(Σk (p1[k] +p2[k] +p3[k] ))/48 (12).
○パターン13
使用する画素:図4(M)
予測画像の作成式:
q[j][i] =(Σk (p1[k] +p3[k] +p4[k] ))/48 (13).
○パターン14
使用する画素:図4(N)
予測画像の作成式:
q[j][i] =(Σk (p2[k] +p3[k] +p4[k] ))/48 (14).
○パターン15
使用する画素:図4(O)
予測画像の作成式:
q[j][i] =(Σk (p1[k] +p2[k] +p3[k] +p4[k] ))/64 (15).
ここで,各パターンにおいて,予測画像を作成する際の計算式は,上記のものと異なるものを設定してもよい。例えば,パターン5において,上記の式(5)の代わりに次のような計算式を用いてもよい。
Pattern 1
Pixel used: FIG. 4 (A)
Predictive image creation formula:
q [j] [i] = p2 [j] (1).
Pattern 2
Pixel used: FIG. 4B
Predictive image creation formula:
q [j] [i] = p1 [i] (2).
Pattern 3
Pixels used: FIG. 4C
Predictive image creation formula:
q [j] [i] = p3 [j] (3).
○ Pattern 4
Pixel used: FIG. 4 (D)
Predictive image creation formula:
q [j] [i] = p4 [i] (4).
Pattern 5
Pixel used: FIG. 4 (E)
Predictive image creation formula:
q [j] [i] = (Σ k (p1 [k] + p2 [k])) / 32 (5).
Pattern 6
Pixel used: FIG. 4 (F)
Predictive image creation formula:
q [j] [i] = (Σ k (p1 [k] + p3 [k])) / 32 (6).
○ Pattern 7
Pixel used: FIG. 4 (G)
Predictive image creation formula:
q [j] [i] = (Σ k (p4 [k] + p3 [k])) / 32 (7).
○ Pattern 8
Pixel used: FIG. 4 (H)
Predictive image creation formula:
q [j] [i] = (Σ k (p4 [k] + p2 [k])) / 32 (8).
○ Pattern 9
Pixel used: FIG. 4 (I)
Predictive image creation formula:
q [j] [i] = (p1 [i] + p4 [i]) / 2 (9).
○ Pattern 10
Pixel used: FIG. 4 (J)
Predictive image creation formula:
q [j] [i] = (p2 [j] + p3 [j]) / 2 (10).
Pattern 11
Pixel used: FIG. 4 (K)
Predictive image creation formula:
q [j] [i] = (Σ k (p1 [k] + p2 [k] + p4 [k])) / 48 (11).
Pattern 12
Pixel used: FIG. 4 (L)
Predictive image creation formula:
q [j] [i] = (Σ k (p1 [k] + p2 [k] + p3 [k])) / 48 (12).
Pattern 13
Pixel used: FIG. 4 (M)
Predictive image creation formula:
q [j] [i] = (Σ k (p1 [k] + p3 [k] + p4 [k])) / 48 (13).
Pattern 14
Pixel used: FIG. 4 (N)
Predictive image creation formula:
q [j] [i] = (Σ k (p2 [k] + p3 [k] + p4 [k])) / 48 (14).
Pattern 15
Pixel used: FIG. 4 (O)
Predictive image creation formula:
q [j] [i] = (Σ k (p1 [k] + p2 [k] + p3 [k] + p4 [k])) / 64 (15).
Here, in each pattern, a calculation formula for creating a predicted image may be set differently from the above. For example, in the pattern 5, the following calculation formula may be used instead of the above formula (5).

○パターン5−2
使用する画素:図4(E)
予測画像の作成式:
q[j][i] =(p1[i] +p2[j] )/2 (16).
また,このようにマクロブロック内で同じ計算式で予測画像を作成するのではなく,非特許文献5のように,既に作成した予測画像を再帰的に利用して予測画像を作成してもよい。また,マクロブロックを小領域に分割して領域ごとに予測画像を作成してもよい。また,非特許文献6のように,ブロック内での予測画像の変化を示すパラメータを符号化するようにしてもよい。
○ Pattern 5-2
Pixel used: FIG. 4 (E)
Predictive image creation formula:
q [j] [i] = (p1 [i] + p2 [j]) / 2 (16).
In addition, instead of creating a prediction image with the same calculation formula in a macroblock as described above, a prediction image may be created by recursively using a prediction image that has already been created as in Non-Patent Document 5. . Further, a macroblock may be divided into small areas and a predicted image may be created for each area. Further, as in Non-Patent Document 6, a parameter indicating a change in a predicted image within a block may be encoded.

〔第1の実施の形態〕
次に,本発明の実施の形態における画像符号化,画像復号について説明する。まず,本発明の第1の実施の形態として,図22に示したような全方位映像を符号化する際の手順を示す。
[First Embodiment]
Next, image encoding and image decoding in the embodiment of the present invention will be described. First, a procedure for encoding an omnidirectional video as shown in FIG. 22 will be described as the first embodiment of the present invention.

図6は,複数カメラからの映像の符号化順序の例を説明する図である。図22に示すように,全方位映像は立方体に投影され,図6に示すように,同一TRごとに,映像S1から映像S6までを交互に符号化するものとする。   FIG. 6 is a diagram for explaining an example of an encoding order of videos from a plurality of cameras. As shown in FIG. 22, the omnidirectional video is projected onto a cube, and as shown in FIG. 6, video S1 to video S6 are encoded alternately for the same TR.

ここでは,映像S1から映像S6までの間に図22に示す幾何学情報の関係があることを前提にして,参照フレームから予測符号化に利用する画素位置を決定する。このとき,画像S6のフレームを縦横16画素マクロブロックに分割し,マクロブロックごとに差分符号化データの符号量が最小となるように予測画像の作成方法を選択して符号化する例を示す。参照画像メモリには,画像S1から画像S5までの現時刻の画像が既に蓄積されているものとする。   Here, on the assumption that the geometric information shown in FIG. 22 exists between video S1 and video S6, the pixel position used for predictive coding is determined from the reference frame. At this time, an example is shown in which the frame of the image S6 is divided into 16 pixels vertically and horizontally macroblocks, and a prediction image creation method is selected and encoded so that the code amount of differentially encoded data is minimized for each macroblock. It is assumed that images at the current time from image S1 to image S5 are already stored in the reference image memory.

図7に,本実施の形態における画像符号化装置の構成例を示す。画像符号化装置は,画像情報を取り込む画像入力部11と,複数フレームの参照画像を蓄積することが可能な参照画像メモリ12と,予測モードの探索を行う予測モード探索部13と,予測モードを符号化する予測モード符号化部14と,予測画像を作成する予測画像作成部15と,入力画像情報と予測画像との差分を符号化する差分符号化部16と,差分符号化部16で作成された差分符号化データを復号して復号画像を作成する復号部17と,予測画像作成部15で使用する参照画像を切り替える参照画像切替部18とを備える。   FIG. 7 shows a configuration example of the image coding apparatus according to the present embodiment. The image encoding device includes an image input unit 11 that captures image information, a reference image memory 12 that can store reference images of a plurality of frames, a prediction mode search unit 13 that searches for a prediction mode, and a prediction mode. Created by a prediction mode encoding unit 14 for encoding, a prediction image generating unit 15 for generating a prediction image, a difference encoding unit 16 for encoding a difference between input image information and a prediction image, and a difference encoding unit 16 A decoding unit 17 that decodes the differentially encoded data and generates a decoded image; and a reference image switching unit 18 that switches a reference image used in the predicted image generation unit 15.

参照画像メモリ12には,画像S1から画像S6までの6フレーム分の画像を蓄積できるメモリが備えてあり,各対応した画像の直前のフレームの画像情報を蓄積する。画像入力部11は,入力画像をマクロブロックに分割するものとする。   The reference image memory 12 is provided with a memory capable of storing images for six frames from the image S1 to the image S6, and stores image information of a frame immediately before each corresponding image. The image input unit 11 is assumed to divide the input image into macro blocks.

図8は,本実施の形態における予測画像作成時の使用画素決定処理フローチャートである。予測モード探索部13および予測画像作成部15は,符号化を行う画像S6のマクロブロック(以下,MBともいう)について,図8に示すフローチャートに従って,予測画像を作成する際に使用することができる画素を決定する。なお,ここでは左上MBから順に符号化を行うものとする。   FIG. 8 is a use pixel determination process flowchart when creating a predicted image in the present embodiment. The prediction mode searching unit 13 and the predicted image creating unit 15 can be used when creating a predicted image according to the flowchart shown in FIG. 8 for the macroblock (hereinafter also referred to as MB) of the image S6 to be encoded. Determine the pixel. Here, encoding is performed in order from the upper left MB.

図9は,本実施の形態における立方体の参照フレームの画素位置の例を示す図である。画像S6を中心に立方体を展開したときの画像S6の周囲の位置を,B1〜B8と表すものとする。このとき,B1〜B4の位置には,それぞれ画像S2〜画像S5が存在する。参照画像メモリ12には画像S1から画像S5までの現時刻の画像が既に蓄積されているので,画像S6と隣接する画像S2から画像S5までの端の画像情報を,画像S6予測画像を作成する際に使用する。   FIG. 9 is a diagram illustrating an example of pixel positions of a cubic reference frame in the present embodiment. The positions around the image S6 when the cube is developed around the image S6 are represented as B1 to B8. At this time, images S2 to S5 exist at the positions B1 to B4, respectively. Since the image at the current time from the image S1 to the image S5 has already been stored in the reference image memory 12, the image information at the end from the image S2 to the image S5 adjacent to the image S6 is created as the predicted image S6. Use when.

符号化対象のMBが画像S6の左上MBである場合には(ステップ100),B1,B2の位置にある画像S2,画像S3の画素を,予測画像の作成に使用可能な画素と決定する(ステップ101)。符号化対象のMBが画像S6の右上MBである場合には(ステップ102),B1,B3の位置にある画像S2,画像S4の画素と,現フレーム(画像S6)の画素とを,予測画像の作成に使用可能な画素と決定する(ステップ103)。符号化対象のMBが画像S6の上MBである場合には(ステップ104),B1の位置にある画像S2の画素と,現フレーム(画像S6)の画素とを,予測画像の作成に使用可能な画素と決定する(ステップ105)。   When the encoding target MB is the upper left MB of the image S6 (step 100), the pixels of the image S2 and the image S3 at the positions of B1 and B2 are determined as pixels that can be used to create a predicted image ( Step 101). When the encoding target MB is the upper right MB of the image S6 (step 102), the pixels of the images S2 and S4 at the positions of B1 and B3 and the pixels of the current frame (image S6) are predicted images. It is determined that the pixel can be used for creation of (step 103). When the encoding target MB is the upper MB of the image S6 (step 104), the pixel of the image S2 at the position of B1 and the pixel of the current frame (image S6) can be used to create a predicted image. The pixel is determined to be a correct pixel (step 105).

符号化対象のMBが画像S6の左下MBである場合には(ステップ106),B2,B4の位置にある画像S3,画像S5の画素と,現フレーム(画像S6)の画素とを,予測画像の作成に使用可能な画素と決定する(ステップ107)。符号化対象のMBが画像S6の右下MBである場合には(ステップ108),B3,B4の位置にある画像S4,画像S5の画素と,現フレーム(画像S6)の画素とを,予測画像の作成に使用可能な画素と決定する(ステップ109)。符号化対象のMBが画像S6の下MBである場合には(ステップ110),B4の位置にある画像S5の画素と,現フレーム(画像S6)の画素とを,予測画像の作成に使用可能な画素と決定する(ステップ111)。   When the encoding target MB is the lower left MB of the image S6 (step 106), the pixel of the image S3 and the image S5 at the positions of B2 and B4 and the pixel of the current frame (image S6) are predicted images. Are determined to be usable pixels (step 107). When the encoding target MB is the lower right MB of the image S6 (step 108), the pixels of the images S4 and S5 at the positions of B3 and B4 and the pixels of the current frame (image S6) are predicted. It is determined that the pixel can be used to create an image (step 109). When the encoding target MB is the lower MB of the image S6 (step 110), the pixel of the image S5 at the position of B4 and the pixel of the current frame (image S6) can be used to create a predicted image. A pixel is determined (step 111).

符号化対象のMBが画像S6の左MBである場合には(ステップ112),B2の位置にある画像S3の画素と,現フレーム(画像S6)の画素とを,予測画像の作成に使用可能な画素と決定する(ステップ113)。符号化対象のMBが画像S6の右MBである場合には(ステップ114),B3の位置にある画像S4の画素と,現フレーム(画像S6)の画素とを,予測画像の作成に使用可能な画素と決定する(ステップ115)。   When the encoding target MB is the left MB of the image S6 (step 112), the pixel of the image S3 at the position of B2 and the pixel of the current frame (image S6) can be used to create a predicted image. A pixel is determined (step 113). If the MB to be encoded is the right MB of the image S6 (step 114), the pixel of the image S4 at the position of B3 and the pixel of the current frame (image S6) can be used to create a predicted image. The pixel is determined to be a correct pixel (step 115).

符号化対象のMBが以上のいずれにも該当しない場合(符号化対象のMBが画像S6の端のMBでない場合)には,現フレーム(画像S6)の画素を,予測画像の作成に使用可能な画素と決定する(ステップ116)。   When the encoding target MB does not correspond to any of the above (when the encoding target MB is not the end MB of the image S6), the pixel of the current frame (image S6) can be used to create a predicted image. (Step 116).

予測モード探索部13は,各種予測モードによって定義される予測画像を,参照フレームまたは現フレームの画像情報から作成して,入力画像と予測画像との間の差分絶対値和が最も小さい予測モードを,そのマクロブロックの予測モードに決定する。   The prediction mode search unit 13 creates a prediction image defined by various prediction modes from the image information of the reference frame or the current frame, and selects a prediction mode having the smallest sum of absolute differences between the input image and the prediction image. , The prediction mode of the macroblock is determined.

予測モード探索部13と予測画像作成部15では,図4に示す配置の画像情報を使って予測画像を作成する。ただし,図8のフローチャートで決定された画素位置の画像情報だけを使用する。   The prediction mode search unit 13 and the prediction image creation unit 15 create a prediction image using the image information of the arrangement shown in FIG. However, only the image information of the pixel position determined in the flowchart of FIG. 8 is used.

図10は,本実施の形態における画像符号化処理フローチャートである。まず,画像入力部11は,入力画像(例えば図22の画像S6)を取り込み,マクロブロックに分割する(ステップ200)。分割したマクロブロックごとに次のようにして符号化する。   FIG. 10 is a flowchart of an image encoding process in the present embodiment. First, the image input unit 11 takes in an input image (for example, the image S6 in FIG. 22) and divides it into macro blocks (step 200). Each divided macro block is encoded as follows.

予測モード探索部13は,符号化対象のマクロブロックについて,図8に示すフローチャートに従って予測画像に使用可能な画素位置を決定する(ステップ201)。次に,上記のパターン1からパターン15までの予測モードのうち,決定された画素位置を使用するパターンだけを順次適用して予測画像を作成し,原画像と予測画像との絶対値差分和を求め,この値が最も小さいパターンの予測モードを求める(ステップ202)。このとき,参照画像切替部18は,図9に示す展開図で対応する画素を参照画像メモリ12から読み込めるように,参照画像を切り替える。   The prediction mode search unit 13 determines pixel positions that can be used for the prediction image for the macroblock to be encoded according to the flowchart shown in FIG. 8 (step 201). Next, among the prediction modes from pattern 1 to pattern 15 described above, only a pattern using the determined pixel position is sequentially applied to create a prediction image, and the absolute value difference sum between the original image and the prediction image is calculated. Then, the prediction mode of the pattern having the smallest value is obtained (step 202). At this time, the reference image switching unit 18 switches the reference image so that the corresponding pixel can be read from the reference image memory 12 in the development view shown in FIG.

このようにして予測モードを決定した後に,予測画像作成部15は,予測画像を作成する(ステップ203)。このとき,決定された予測モードで予測画像を作成するように,参照画像切替部18は,再度参照画像を切り替える。   After determining the prediction mode in this way, the predicted image creating unit 15 creates a predicted image (step 203). At this time, the reference image switching unit 18 switches the reference image again so as to create a predicted image in the determined prediction mode.

差分符号化部16は,原画像と予測画像との差分を符号化し(ステップ204),復号部17は,符号化データを復号して復号画像を作成し(ステップ205),その復号画像を画像S6用の参照画像メモリ12に蓄積する(ステップ206)。また,予測モード符号化部14は,予測モード探索部13で決定された予測モードを符号化する(ステップ207)。   The differential encoding unit 16 encodes the difference between the original image and the predicted image (step 204), and the decoding unit 17 decodes the encoded data to create a decoded image (step 205). The data is stored in the reference image memory 12 for S6 (step 206). Moreover, the prediction mode encoding part 14 encodes the prediction mode determined by the prediction mode search part 13 (step 207).

以上の処理(ステップ201〜207)を現在の入力画像の全マクロブロックについて実行する(ステップ208)。次のマクロブロックからは,参照画像メモリ12に蓄積した現在の画像の復号画像も利用しながら予測画像を作成して符号化する。このようにして現在の入力画像をすべて符号化する。   The above processing (steps 201 to 207) is executed for all macroblocks of the current input image (step 208). From the next macroblock, a predicted image is created and encoded using the decoded image of the current image stored in the reference image memory 12. In this way, all current input images are encoded.

図11は,本実施の形態における画像復号装置の構成例を示す図である。画像復号装置は,差分符号化データを復号する差分復号部21と,複数フレームの参照画像を蓄積することが可能な参照画像メモリ22と,予測モードを復号する予測モード復号部23と,予測画像を作成する予測画像作成部24と,差分画像と予測画像とから復号画像を作成する復号画像作成部25と,予測画像作成部24で使用する参照画像を切り替える参照画像切替部26とを備える。   FIG. 11 is a diagram illustrating a configuration example of the image decoding device according to the present embodiment. The image decoding apparatus includes a differential decoding unit 21 that decodes differentially encoded data, a reference image memory 22 that can store a plurality of frames of reference images, a prediction mode decoding unit 23 that decodes a prediction mode, and a prediction image A predicted image creating unit 24 that creates a decoded image from the difference image and the predicted image, and a reference image switching unit 26 that switches a reference image used in the predicted image creating unit 24.

参照画像メモリ22には,画像S1から画像S6までの6フレーム分の画像を蓄積できるメモリが備えてあり,各対応した画像の直前のフレームの画像情報を蓄積する。   The reference image memory 22 includes a memory capable of storing images for six frames from the image S1 to the image S6, and stores image information of a frame immediately before each corresponding image.

前述の画像符号化装置の場合と同様に,予測画像作成部24では,次に復号を行う画像(例えば図22の画像S6)のマクロブロックについて,図8に示すフローに従って,予測画像を作成する際に使用することができる画素を決定し,予測モード復号部23で復号したパターン1からパターン15までのいずれかの予測モードを適用して予測画像を作成する。   As in the case of the image encoding device described above, the predicted image creation unit 24 creates a predicted image according to the flow shown in FIG. 8 for the macroblock of the image to be decoded next (for example, the image S6 in FIG. 22). Pixels that can be used at this time are determined, and one of the prediction modes from pattern 1 to pattern 15 decoded by the prediction mode decoding unit 23 is applied to create a prediction image.

図12は,本実施の形態における画像復号処理フローチャートである。画像復号装置は,前述した画像符号化装置で符号化された画像(例えば画像S6)の符号化データを,マクロブロックごとに次のように復号する。   FIG. 12 is a flowchart of image decoding processing according to the present embodiment. The image decoding apparatus decodes the encoded data of the image (for example, the image S6) encoded by the above-described image encoding apparatus for each macroblock as follows.

予測モード復号部23は,予測モードを復号し(ステップ300),予測画像作成部24は,予測画像を作成する(ステップ301)。このとき,復号された予測モードに従って予測画像を作成するように,参照画像切替部26が参照画像を切り替える。   The prediction mode decoding unit 23 decodes the prediction mode (step 300), and the prediction image creation unit 24 creates a prediction image (step 301). At this time, the reference image switching unit 26 switches the reference image so as to create a predicted image according to the decoded prediction mode.

差分復号部21は,差分符号化データを復号して差分画像情報を求め(ステップ302),復号画像作成部25は,差分画像情報と予測画像とを使用して復号画像を作成する(ステップ303)。その復号画像を出力するとともに,画像S6用の参照画像メモリ22に蓄積する(ステップ304)。   The difference decoding unit 21 decodes the difference encoded data to obtain difference image information (step 302), and the decoded image creation unit 25 creates a decoded image using the difference image information and the predicted image (step 303). ). The decoded image is output and stored in the reference image memory 22 for the image S6 (step 304).

以上の処理(ステップ300〜304)を,現在復号する画像の全マクロブロックについて実行する(ステップ305)。ここで,次のマクロブロックからは,参照画像メモリ22に蓄積した現在の画像の復号画像も利用しながら予測画像を作成して復号する。このようにして現在の入力画像をすべて復号する。   The above processing (steps 300 to 304) is executed for all macroblocks of the currently decoded image (step 305). Here, from the next macroblock, a predicted image is created and decoded using the decoded image of the current image stored in the reference image memory 22. In this way, all the current input images are decoded.

〔第2の実施の形態〕
次に,本発明の第2の実施の形態として,カメラが移動する際の画像符号化の手順を示す。図13は,本実施の形態におけるカメラが移動した場合の予測画像作成の例を示す図である。図13(a)に示すように,カメラは,位置A→位置B→位置Cの順に移動して撮像を行うものとする。図13(b)において,位置Aの画像の位置A−1,位置Bの画像の位置B−1は,位置Cの画像の左端に相当する。
[Second Embodiment]
Next, as a second embodiment of the present invention, an image encoding procedure when the camera moves will be described. FIG. 13 is a diagram illustrating an example of creating a predicted image when the camera moves in the present embodiment. As shown in FIG. 13A, the camera moves in the order of position A → position B → position C and performs imaging. In FIG. 13B, the position A-1 of the image at position A and the position B-1 of the image at position B correspond to the left end of the image at position C.

以下,カメラが位置Cのときの画像を符号化する際に,カメラが位置Aまたは位置Bにあるときの画像を使用して予測画像を作成する例を示す。参照画像メモリには,位置Aと位置Bにおける復号画像が既に蓄積されているものとする。   Hereinafter, an example of creating a predicted image using an image when the camera is at position A or B when encoding an image when the camera is at position C will be described. It is assumed that decoded images at positions A and B are already stored in the reference image memory.

本実施の形態では,位置Aと位置C,位置Bと位置Cの間に図13に示す幾何学情報の関係があることを前提にして,参照フレームから予測符号化に利用する画素位置を決定する。このとき,位置Cの画像を縦横16画素マクロブロックに分割し,マクロブロックごとに差分符号化データの符号量が最小となるように,参照画像と予測画像の作成方法とを選択して符号化する。   In the present embodiment, the pixel position used for predictive coding is determined from the reference frame on the assumption that the geometric information shown in FIG. 13 exists between position A and position C, and position B and position C. To do. At this time, the image at position C is divided into 16 pixels vertically and horizontally macroblocks, and the reference image and the prediction image creation method are selected and encoded so that the code amount of differentially encoded data is minimized for each macroblock. To do.

図14は,本実施の形態における画像符号化装置の構成例を示す図である。画像符号化装置は,符号化する画像情報を取り込む画像入力部31と,複数フレームの参照画像を蓄積することが可能な参照画像メモリ32と,予測モードの探索を行う予測モード探索部33と,予測モードを符号化する予測モード符号化部34と,予測画像を作成する予測画像作成部35と,入力画像情報と予測画像との差分を符号化する差分符号化部36と,差分符号化部36で作成された差分符号化データを復号して復号画像を作成する復号部37と,予測画像作成部35で使用する参照画像を切り替える参照画像切替部38と,参照画像を指定する参照画像指定情報を符号化する参照画像指定情報符号化部39とを備える。   FIG. 14 is a diagram illustrating a configuration example of an image encoding device according to the present embodiment. The image encoding device includes an image input unit 31 that captures image information to be encoded, a reference image memory 32 that can store a plurality of frames of reference images, a prediction mode search unit 33 that searches for a prediction mode, A prediction mode encoding unit 34 that encodes a prediction mode, a prediction image generation unit 35 that generates a prediction image, a difference encoding unit 36 that encodes a difference between input image information and a prediction image, and a difference encoding unit A decoding unit 37 that decodes the differentially encoded data generated in 36 to generate a decoded image, a reference image switching unit 38 that switches a reference image used in the predicted image generating unit 35, and a reference image specification that specifies a reference image And a reference image designation information encoding unit 39 that encodes information.

参照画像メモリ32には,位置Aと位置Bの復号画像が既に蓄積されているものとする。さらに,位置Cの復号画像を蓄積できるメモリが備えてあるものとする。画像入力部31は,入力画像をマクロブロックに分割するものとする。   It is assumed that the decoded images at position A and position B have already been stored in the reference image memory 32. It is further assumed that a memory capable of storing the decoded image at position C is provided. It is assumed that the image input unit 31 divides the input image into macro blocks.

予測画像作成部35は,位置Cの画像の左端のマクロブロックについて,参照画像メモリ32の位置Aまたは位置Bの画像と,位置Cの復号画像とから予測画像を作成する。それ以外の位置のマクロブロックについては,参照画像メモリ32の位置Cの復号画像から予測画像を作成する。   The predicted image creation unit 35 creates a predicted image for the leftmost macroblock of the image at position C from the image at position A or position B in the reference image memory 32 and the decoded image at position C. For macroblocks at other positions, a predicted image is created from the decoded image at position C in the reference image memory 32.

予測モード探索部33は,各種予測モードによって定義される予測画像を,参照フレームまたは現フレームの画像情報から作成し,入力画像と予測画像との間の差分絶対値和が最も小さい参照画像と予測モードを,そのマクロブロックの参照画像と予測モードに決定する。   The prediction mode search unit 33 creates a prediction image defined by various prediction modes from image information of the reference frame or the current frame, and predicts the reference image having the smallest sum of absolute differences between the input image and the prediction image. The mode is determined as the reference image and prediction mode of the macroblock.

図15は,本実施の形態における画像符号化処理フローチャートである。まず,画像入力部31は,位置Cの入力画像を取り込み,マクロブロックに分割する(ステップ400)。分割したマクロブロックごとに次のように符号化する。   FIG. 15 is a flowchart of an image encoding process in the present embodiment. First, the image input unit 31 takes in the input image at the position C and divides it into macro blocks (step 400). Each divided macroblock is encoded as follows.

予測モード探索部33は,参照画像を位置Aの画像に設定し,パターン1からパターン15までの予測モードを順次適用して予測画像を作成し,現在の画像と予測画像との絶対値差分和を求め,この値が最も小さいパターンの予測モードを求める(ステップ401)。次に,参照画像を位置Bの画像に設定し,パターン1からパターン15までの予測モードを順次適用して予測画像を作成し,現在の画像と予測画像との絶対値差分和を求め,この値が最も小さいパターンを求める(ステップ402)。   The prediction mode search unit 33 sets the reference image to the image at position A, sequentially applies the prediction modes from pattern 1 to pattern 15 to create a prediction image, and calculates the sum of absolute value differences between the current image and the prediction image. And the prediction mode of the pattern having the smallest value is obtained (step 401). Next, a reference image is set as an image at position B, prediction modes from pattern 1 to pattern 15 are sequentially applied to generate a prediction image, and an absolute value difference sum between the current image and the prediction image is obtained. A pattern having the smallest value is obtained (step 402).

ステップ401で求められた位置Aの画像を参照画像としたときの最小の絶対値差分和と,ステップ402で求められた位置Bの画像を参照画像としたときの最小の絶対値差分和を比較する(ステップ403)。位置Aの画像を参照画像としたときの最小の絶対値差分和の方が小さければ,位置Aの画像をそのマクロブロックの参照画像に決定し(ステップ404),ステップ401で求められた予測モードをそのマクロブロックの予測モードに決定する(ステップ405)。位置Bの画像を参照画像としたときの最小の絶対値差分和の方が小さければ,位置Bの画像をそのマクロブロックの参照画像に決定し(ステップ406),ステップ402で求められた予測モードをそのマクロブロックの予測モードに決定する(ステップ407)。   Comparing the minimum absolute value difference sum when the image of the position A obtained in step 401 is a reference image and the minimum absolute value difference sum when the image of the position B obtained in step 402 is a reference image (Step 403). If the minimum absolute value difference sum when the image at position A is the reference image is smaller, the image at position A is determined as the reference image of the macroblock (step 404), and the prediction mode obtained at step 401 is determined. Is determined as the prediction mode of the macroblock (step 405). If the minimum absolute value difference sum when the image at position B is used as the reference image is smaller, the image at position B is determined as the reference image of the macroblock (step 406), and the prediction mode obtained at step 402 is determined. Is determined as the prediction mode of the macroblock (step 407).

ここで,予測画像を作成する際には,パターン1からパターン15までの予測モードのうち,位置Aの画像または位置Bの画像と,符号化および復号済みの現在の画像の画素位置を使用するパターンのみを適用する。   Here, when creating a predicted image, among the prediction modes from pattern 1 to pattern 15, the image at position A or the image at position B and the pixel position of the current image that has been encoded and decoded are used. Apply pattern only.

このようにして参照画像と予測モードを決定した後に,予測画像作成部35は,決定された予測モードで予測画像を作成する(ステップ408)。このとき,決定された参照画像で予測画像を作成するように,参照画像切替部38が参照画像を切り替える。   After determining the reference image and the prediction mode in this way, the predicted image creation unit 35 creates a predicted image in the determined prediction mode (step 408). At this time, the reference image switching unit 38 switches the reference image so as to create a predicted image with the determined reference image.

差分符号化部36は,現在の画像と予測画像との差分を符号化し(ステップ409),復号部37は,符号化データを復号して復号画像を作成し(ステップ410),その復号画像を位置C用の参照画像メモリ32に蓄積する(ステップ411)。また,予測モード符号化部34は,予測モードを符号化し(ステップ412),参照画像指定情報符号化部39は,参照画像指定情報を符号化する(ステップ413)。   The difference encoding unit 36 encodes the difference between the current image and the predicted image (step 409), and the decoding unit 37 decodes the encoded data to create a decoded image (step 410). The reference image memory 32 for position C is stored (step 411). The prediction mode encoding unit 34 encodes the prediction mode (step 412), and the reference image designation information encoding unit 39 encodes the reference image designation information (step 413).

以上の処理(ステップ401〜413)を現画像の全マクロブロックについて実行する(ステップ414)。ここで,次のマクロブロックからは,参照画像メモリ32に蓄積した位置Cの復号画像も利用しながら予測画像を作成し符号化する。このようにして,入力した位置Cの画像をすべて符号化する。   The above processing (steps 401 to 413) is executed for all macroblocks of the current image (step 414). Here, from the next macroblock, a predicted image is created and encoded using the decoded image at position C stored in the reference image memory 32. In this way, all the images at the input position C are encoded.

図16は,本実施の形態における画像復号装置の構成例を示す図である。画像復号装置は,差分符号化データを復号する差分復号部41と,複数フレームの参照画像を蓄積することが可能な参照画像メモリ42と,予測モードを復号する予測モード復号部43と,予測画像を作成する予測画像作成部44と,差分画像と予測画像とから復号画像を作成する復号画像作成部45と,予測画像作成部44で使用する参照画像を切り替える参照画像切替部46と,参照画像を指定する参照画像指定情報を復号する参照画像指定情報復号部47とを備える。   FIG. 16 is a diagram illustrating a configuration example of an image decoding device according to the present embodiment. The image decoding apparatus includes a differential decoding unit 41 that decodes differentially encoded data, a reference image memory 42 that can store reference images of a plurality of frames, a prediction mode decoding unit 43 that decodes a prediction mode, and a prediction image A predicted image creating unit 44 that creates a decoded image from the difference image and the predicted image, a reference image switching unit 46 that switches a reference image used in the predicted image creating unit 44, and a reference image A reference image designation information decoding unit 47 for decoding the reference image designation information for designating.

参照画像メモリ42には,位置Aと位置Bの復号画像が既に蓄積されており,これから位置Cの画像の符号化データを復号する場合について説明する。前述の画像符号化装置の場合と同様に,予測画像作成部44は,位置Cの画像の左端のマクロブロックについて,参照画像メモリ42の位置Aまたは位置Bの画像と,位置Cの復号画像とから予測画像を作成する。それ以外の位置のマクロブロックについては,参照画像メモリ42の位置Cの復号画像から予測画像を作成する。このような前提で,図14の画像符号化装置で符号化された符号化データを,マクロブロックごとに次のように復号する。   A case will be described in which the decoded images of the position A and the position B are already stored in the reference image memory 42, and the encoded data of the image of the position C is decoded from now on. As in the case of the above-described image encoding device, the predicted image creation unit 44 determines the position A or the position B in the reference image memory 42, the decoded image at the position C, and the like for the leftmost macroblock of the position C image. Create a prediction image from For macroblocks at other positions, a predicted image is created from the decoded image at position C in the reference image memory 42. Under such a premise, the encoded data encoded by the image encoding device of FIG. 14 is decoded for each macroblock as follows.

図17は,本実施の形態における画像復号処理フローチャートである。まず,予測モード復号部43は,予測モードを復号し(ステップ500),参照画像指定情報復号部47は,参照画像指定情報を復号する(ステップ501)。   FIG. 17 is a flowchart of image decoding processing according to the present embodiment. First, the prediction mode decoding unit 43 decodes the prediction mode (step 500), and the reference image designation information decoding unit 47 decodes the reference image designation information (step 501).

予測画像作成部44は,復号された予測モードに従って予測画像を作成する(ステップ502)。このとき,復号された参照画像指定情報で指定された参照画像で予測画像を作成するように,参照画像切替部46が参照画像を切り替える。   The predicted image creation unit 44 creates a predicted image according to the decoded prediction mode (step 502). At this time, the reference image switching unit 46 switches the reference image so as to create a predicted image using the reference image specified by the decoded reference image specifying information.

差分復号部41は,差分符号化データを復号して差分画像情報を求め(ステップ503),復号画像作成部45は,差分画像情報と予測画像とを使用して復号画像を作成する(ステップ504)。作成した復号画像を出力するとともに,その復号画像を位置C用の参照画像メモリ42に蓄積する(ステップ505)。   The difference decoding unit 41 decodes the difference encoded data to obtain difference image information (step 503), and the decoded image creation unit 45 creates a decoded image using the difference image information and the predicted image (step 504). ). The generated decoded image is output and the decoded image is stored in the reference image memory 42 for position C (step 505).

以上の処理(ステップ500〜505)を,現在の画像の全マクロブロックについて実行する(ステップ506)。次のマクロブロックからは,参照画像メモリ42に蓄積した位置Cの復号画像も利用しながら予測画像を作成して復号する。   The above processing (steps 500 to 505) is executed for all macroblocks of the current image (step 506). From the next macroblock, a predicted image is created and decoded using the decoded image at position C stored in the reference image memory 42.

以上の第1および第2の実施の形態における画像符号化装置および画像復号装置が行う処理は,ハードウェアやファームウェアを用いて実現することができるだけでなく,コンピュータとソフトウェアプログラムとによっても実現することができ,そのプログラムをコンピュータ読み取り可能な記録媒体に記録して提供することも,ネットワークを通して提供することも可能である。   The processing performed by the image encoding device and the image decoding device in the first and second embodiments described above can be realized not only using hardware and firmware, but also using a computer and a software program. The program can be provided by being recorded on a computer-readable recording medium or can be provided through a network.

以上説明した第1および第2の実施の形態では,参照フレームと現フレームとの間の幾何学情報は予め設定されており,符号化データには含めなかったが,符号化データに含めるようにしてもよい。   In the first and second embodiments described above, the geometric information between the reference frame and the current frame is preset and is not included in the encoded data, but is included in the encoded data. May be.

また,本実施の形態では,画像符号化装置における予測モード探索の際に,絶対値差分和が最も小さい位置に設定したが,例えば実際に符号化した符号化データの符号量が最小となる位置に設定してもよい。   Further, in the present embodiment, the position where the sum of absolute value differences is set to the smallest in the prediction mode search in the image coding apparatus, for example, the position where the code amount of the actually encoded data is minimized. May be set.

また,本実施の形態では,画像符号化装置における復号部17,37は,差分画像情報と予測画像とから復号画像を作成し,それを参照画像メモリ12,32に蓄積しているが,原画像を参照画像メモリ12,32に蓄積するようにしてもよい。   In the present embodiment, the decoding units 17 and 37 in the image encoding device create a decoded image from the difference image information and the predicted image and store it in the reference image memories 12 and 32. Images may be stored in the reference image memories 12 and 32.

複数カメラからの映像の例を示す図である。It is a figure which shows the example of the image | video from a some camera. カメラが移動した場合の予測画像作成の例を示す図である。It is a figure which shows the example of prediction image creation when a camera moves. 2画面間の位置関係の表現方法の例を示す図である。It is a figure which shows the example of the expression method of the positional relationship between 2 screens. 予測画像の作成に使用する画素の位置の例を示す図である。It is a figure which shows the example of the position of the pixel used for preparation of an estimated image. 現マクロブロックの周囲画素の位置関係を示す図である。It is a figure which shows the positional relationship of the surrounding pixel of the present macroblock. 複数カメラからの映像の符号化順序の例を説明する図である。It is a figure explaining the example of the encoding order of the image | video from several cameras. 本実施の形態における画像符号化装置の構成例を示す図である。It is a figure which shows the structural example of the image coding apparatus in this Embodiment. 本実施の形態における予測画像作成時の使用画素決定処理フローチャートである。It is a use pixel determination process flowchart at the time of the prediction image preparation in this Embodiment. 本実施の形態における立方体の参照フレームの画素位置の例を示す図である。It is a figure which shows the example of the pixel position of the cube reference frame in this Embodiment. 本実施の形態における画像符号化処理フローチャートである。It is an image encoding process flowchart in this Embodiment. 本実施の形態における画像復号装置の構成例を示す図である。It is a figure which shows the structural example of the image decoding apparatus in this Embodiment. 本実施の形態における画像復号処理フローチャートである。It is an image decoding process flowchart in this Embodiment. 本実施の形態におけるカメラが移動した場合の予測画像作成の例を示す図である。It is a figure which shows the example of prediction image preparation when the camera in this Embodiment moves. 本実施の形態における画像符号化装置の構成例を示す図である。It is a figure which shows the structural example of the image coding apparatus in this Embodiment. 本実施の形態における画像符号化処理フローチャートである。It is an image encoding process flowchart in this Embodiment. 本実施の形態における画像復号装置の構成例を示す図である。It is a figure which shows the structural example of the image decoding apparatus in this Embodiment. 本実施の形態における画像復号処理フローチャートである。It is an image decoding process flowchart in this Embodiment. JPEG−LSにおける予測に使用する画素位置の例を示す図である。It is a figure which shows the example of the pixel position used for the prediction in JPEG-LS. H.264におけるイントラ予測の例を示す図である。H. 2 is a diagram illustrating an example of intra prediction in H.264. 内挿補間の例を示す図である。It is a figure which shows the example of interpolation. 全方位映像の8面体への投影の例を示す図である。It is a figure which shows the example of the projection to the octahedron of an omnidirectional image | video. 全方位映像の立方体への投影の例を示す図である。It is a figure which shows the example of the projection to the cube of an omnidirectional image | video. 高解像度画像の画面分割の例を示す図である。It is a figure which shows the example of the screen division | segmentation of a high resolution image.

符号の説明Explanation of symbols

11,31 画像入力部
12,32 参照画像メモリ
13,33 予測モード探索部
14,34 予測モード符号化部
15,35 予測画像作成部
16,36 差分符号化部
17,37 復号部
18,38 参照画像切替部
39 参照画像指定情報符号化部
21,41 差分復号部
22,42 参照画像メモリ
23,43 予測モード復号部
24,44 予測画像作成部
25,45 復号画像作成部
26,46 参照画像切替部
47 参照画像指定情報復号部
11, 31 Image input unit 12, 32 Reference image memory 13, 33 Prediction mode search unit 14, 34 Prediction mode encoding unit 15, 35 Prediction image creation unit 16, 36 Difference encoding unit 17, 37 Decoding unit 18, 38 Reference Image switching unit 39 Reference image designation information encoding unit 21, 41 Difference decoding unit 22, 42 Reference image memory 23, 43 Prediction mode decoding unit 24, 44 Predicted image creating unit 25, 45 Decoded image creating unit 26, 46 Reference image switching 47 Reference image designation information decoding unit

Claims (14)

参照画像を蓄積しておき,現フレームを分割した領域内の画像情報を,フレーム間予測符号化を用いて符号化する画像符号化装置であって,
複数フレームの参照画像を蓄積する参照画像メモリと,
予め設定された参照フレームと現フレーム間の幾何学情報を用いて,参照フレームの画像情報と現フレームの画像情報とから現フレームの予測画像を作成する予測画像作成部と,
前記現フレームを分割した領域内の画像情報と予測画像の差分を符号化する差分符号化部とを備える
ことを特徴とする画像符号化装置。
An image encoding apparatus that stores reference images and encodes image information in an area obtained by dividing a current frame using inter-frame predictive encoding,
A reference image memory for storing multiple frames of reference images;
A prediction image creation unit that creates a prediction image of the current frame from the image information of the reference frame and the image information of the current frame using geometric information between the reference frame set in advance and the current frame;
An image encoding apparatus comprising: a difference encoding unit that encodes a difference between image information in a region obtained by dividing the current frame and a predicted image.
参照画像を蓄積しておき,現フレームを分割した領域内の画像情報を,フレーム間予測符号化を用いて符号化する画像符号化装置であって,
符号化する現フレームの画像情報を取り込む画像入力部と,
複数フレームの参照画像を蓄積する参照画像メモリと,
参照フレームと現フレーム間の空間的な位置関係を示す幾何学情報を用いて,参照フレームの画像情報と現フレームの画像情報とから現フレームの予測画像を作成するにあたって,予測画像を作成する際に使用する画像情報を定める複数のパターンに対応する複数の予測モードの中から,前記幾何学情報に従って予測画像の作成に用いる予測モードを探索し決定する予測モード探索部と,
前記予測モードを符号化する予測モード符号化部と,
前記予測モードに従って予測画像を作成する予測画像作成部と,
入力画像情報と予測画像との差分を符号化する差分符号化部と,
前記差分符号化部で作成された差分符号化データを復号して復号画像を作成し前記参照メモリに格納する復号部とを備える
ことを特徴とする画像符号化装置。
An image encoding apparatus that stores reference images and encodes image information in an area obtained by dividing a current frame using inter-frame predictive encoding,
An image input unit for capturing image information of the current frame to be encoded;
A reference image memory for storing multiple frames of reference images;
When creating a predicted image when creating a predicted image of the current frame from the image information of the reference frame and the image information of the current frame using geometric information indicating the spatial positional relationship between the reference frame and the current frame A prediction mode search unit for searching for and determining a prediction mode used to create a prediction image according to the geometric information from a plurality of prediction modes corresponding to a plurality of patterns defining image information used for;
A prediction mode encoding unit for encoding the prediction mode;
A predicted image creating unit for creating a predicted image according to the prediction mode;
A differential encoding unit for encoding the difference between the input image information and the predicted image;
An image encoding apparatus comprising: a decoding unit that decodes differentially encoded data generated by the differential encoding unit to generate a decoded image and stores the decoded image in the reference memory.
請求項2記載の画像符号化装置において,
前記参照画像メモリに蓄積された参照画像のうち前記予測画像作成部が参照する参照画像の指定情報を符号化する参照画像指定情報符号化部を備える
ことを特徴とする画像符号化装置。
The image encoding device according to claim 2,
An image coding apparatus comprising: a reference image designation information encoding unit that encodes reference image designation information that is referred to by the prediction image generation unit among reference images stored in the reference image memory.
請求項2または請求項3記載の画像符号化装置において,
前記幾何学情報を符号化する幾何学情報符号化部を備える
ことを特徴とする画像符号化装置。
In the image coding device according to claim 2 or 3,
An image encoding apparatus comprising: a geometric information encoding unit that encodes the geometric information.
参照画像を蓄積しておき,現フレームを分割した領域内の画像情報を,フレーム間予測符号化を用いて復号する画像復号装置であって,
複数フレームの参照画像を蓄積する参照画像メモリと,
差分画像情報を復号する差分復号部と,
予め設定された参照フレームと現フレーム間の幾何学情報を用いて,参照フレームの画像情報と現フレームの画像情報とから現フレームの予測画像を作成する予測画像作成部と,
予測画像と差分画像情報とから復号画像を作成する復号画像作成部とを備える
ことを特徴とする画像復号装置。
An image decoding apparatus that stores reference images and decodes image information in an area obtained by dividing a current frame using inter-frame prediction encoding,
A reference image memory for storing multiple frames of reference images;
A differential decoding unit for decoding the differential image information;
A prediction image creation unit that creates a prediction image of the current frame from the image information of the reference frame and the image information of the current frame using geometric information between the reference frame set in advance and the current frame;
An image decoding apparatus comprising: a decoded image generation unit that generates a decoded image from a predicted image and difference image information.
参照画像を蓄積しておき,現フレームを分割した領域内の画像情報を,フレーム間予測符号化を用いて復号する画像復号装置であって,
復号する画像の差分画像情報の符号化データと,参照フレームと現フレーム間の空間的な位置関係を示す幾何学情報を用いて,参照フレームの画像情報と現フレームの画像情報とから現フレームの予測画像を作成するにあたって,予測画像を作成する際に使用する画像情報を定める複数のパターンに対応する複数の予測モードの中から,画像符号化装置が決定し符号化した予測モードの符号化データを入力する入力部と,
複数フレームの参照画像を蓄積する参照画像メモリと,
前記入力した予測モードの符号化データを復号する予測モード復号部と,
差分画像情報を復号する差分復号部と,
前記復号した予測モードに従って前記参照画像メモリに蓄積された参照画像の画像情報を用いて現フレームの予測画像を作成する予測画像作成部と,
予測画像と差分画像情報とから復号画像を作成し前記参照画像メモリに格納する復号画像作成部とを備える
ことを特徴とする画像復号装置。
An image decoding apparatus that stores reference images and decodes image information in an area obtained by dividing a current frame using inter-frame prediction encoding,
Using the encoded data of the difference image information of the image to be decoded and the geometric information indicating the spatial positional relationship between the reference frame and the current frame, the current frame image information is obtained from the reference frame image information and the current frame image information. When creating a prediction image, the encoded data of the prediction mode determined and encoded by the image encoding device from among a plurality of prediction modes corresponding to a plurality of patterns that define image information to be used when creating the prediction image An input unit for inputting
A reference image memory for storing multiple frames of reference images;
A prediction mode decoding unit that decodes the encoded data of the input prediction mode;
A differential decoding unit for decoding the differential image information;
A predicted image creating unit that creates a predicted image of the current frame using image information of a reference image stored in the reference image memory according to the decoded prediction mode;
An image decoding apparatus comprising: a decoded image generating unit that generates a decoded image from a predicted image and difference image information and stores the decoded image in the reference image memory.
請求項6記載の画像復号装置において,
前記参照画像メモリに蓄積された参照画像のうち前記予測画像作成部が参照する参照画像の指定情報の符号化データを入力する入力部と,
入力した参照画像の指定情報の符号化データを復号する参照画像指定情報復号部とを備え,
前記予測画像作成部は,復号された参照画像の指定情報が示す参照画像を,前記参照画像メモリから読み出して予測画像の作成に使用する
ことを特徴とする画像復号装置。
The image decoding device according to claim 6,
An input unit that inputs encoded data of designation information of a reference image that is referred to by the prediction image generation unit among the reference images stored in the reference image memory;
A reference image designation information decoding unit for decoding the encoded data of the input reference image designation information,
The prediction image creating unit reads a reference image indicated by the designation information of the decoded reference image from the reference image memory and uses the reference image to create a predicted image.
請求項6または請求項7記載の画像復号装置において,
前記幾何学情報を復号する幾何学情報復号部を備える
ことを特徴とする画像復号装置。
The image decoding device according to claim 6 or 7,
An image decoding apparatus comprising: a geometric information decoding unit that decodes the geometric information.
参照画像を蓄積しておき,現フレームを分割した領域内の画像情報を,フレーム間予測符号化を用いて符号化する画像符号化方法であって,
予め設定された参照フレームと現フレーム間の幾何学情報を用いて,参照フレームの画像情報と現フレームの画像情報から現フレームの予測画像を作成する予測画像作成ステップと,
前記現フレームを分割した領域内の画像情報と予測画像の差分を符号化する差分符号化ステップとを実行する
ことを特徴とする画像符号化方法。
An image encoding method for storing reference images and encoding image information in an area obtained by dividing a current frame using inter-frame predictive encoding,
A predicted image creating step for creating a predicted image of the current frame from the image information of the reference frame and the image information of the current frame using geometric information between the reference frame set in advance and the current frame;
An image encoding method, comprising: executing a difference encoding step of encoding a difference between image information in a region obtained by dividing the current frame and a predicted image.
参照画像を蓄積しておき,現フレームを分割した領域内の画像情報を,フレーム間予測符号化を用いて復号する画像復号方法であって,
予め設定された参照フレームと現フレーム間の幾何学情報を用いて,参照フレームの画像情報と現フレームの画像情報から現フレームの予測画像を作成する予測画像作成ステップと,
差分画像情報を復号する差分復号ステップと,
予測画像と差分画像情報から復号画像を作成する復号画像作成ステップとを実行する
ことを特徴とする画像復号方法。
An image decoding method for storing reference images and decoding image information in an area obtained by dividing a current frame using inter-frame predictive coding,
A predicted image creating step for creating a predicted image of the current frame from the image information of the reference frame and the image information of the current frame using geometric information between the reference frame set in advance and the current frame;
A differential decoding step for decoding the differential image information;
An image decoding method comprising: executing a decoded image creating step of creating a decoded image from a predicted image and difference image information.
請求項1から請求項4までのいずれか1項に記載された画像符号化装置の各部の機能を,コンピュータに実現させるための画像符号化プログラム。   An image encoding program for causing a computer to realize the function of each unit of the image encoding device according to any one of claims 1 to 4. 請求項5から請求項8までのいずれか1項に記載された画像復号装置の各部の機能を,コンピュータに実現させるための画像復号プログラム。   The image decoding program for making a computer implement | achieve the function of each part of the image decoding apparatus described in any one of Claim 5-8. 請求項1から請求項4までのいずれか1項に記載された画像符号化装置の各部の機能を,コンピュータに実現させるための画像符号化プログラムを,コンピュータ読み取り可能な記録媒体に記録したことを特徴とする画像符号化プログラム記録媒体。   An image encoding program for causing a computer to realize the function of each unit of the image encoding device according to any one of claims 1 to 4 is recorded on a computer-readable recording medium. A characteristic image encoding program recording medium. 請求項5から請求項8までのいずれか1項に記載された画像復号装置の各部の機能を,コンピュータに実現させるための画像復号プログラムを,コンピュータ読み取り可能な記録媒体に記録したことを特徴とする画像復号プログラム記録媒体。   An image decoding program for causing a computer to realize the function of each unit of the image decoding device according to any one of claims 5 to 8 is recorded on a computer-readable recording medium. An image decoding program recording medium.
JP2004067381A 2004-03-10 2004-03-10 Image encoding device, image decoding device, image encoding method, image decoding method, image encoding program, image decoding program, image encoding program recording medium, and image decoding program recording medium Pending JP2005260464A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004067381A JP2005260464A (en) 2004-03-10 2004-03-10 Image encoding device, image decoding device, image encoding method, image decoding method, image encoding program, image decoding program, image encoding program recording medium, and image decoding program recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004067381A JP2005260464A (en) 2004-03-10 2004-03-10 Image encoding device, image decoding device, image encoding method, image decoding method, image encoding program, image decoding program, image encoding program recording medium, and image decoding program recording medium

Publications (1)

Publication Number Publication Date
JP2005260464A true JP2005260464A (en) 2005-09-22

Family

ID=35085786

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004067381A Pending JP2005260464A (en) 2004-03-10 2004-03-10 Image encoding device, image decoding device, image encoding method, image decoding method, image encoding program, image decoding program, image encoding program recording medium, and image decoding program recording medium

Country Status (1)

Country Link
JP (1) JP2005260464A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008012918A1 (en) * 2006-07-28 2008-01-31 Kabushiki Kaisha Toshiba Image encoding and decoding method and apparatus
RU2427976C2 (en) * 2006-07-28 2011-08-27 Кабусики Кайся Тосиба Method and device for coding and decoding of image
JP2012120238A (en) * 2012-02-09 2012-06-21 Hitachi Ltd Image decoding method
US8311089B2 (en) 2006-06-14 2012-11-13 Kddi Corporation Multi-view video compression coding method and apparatus
JP2013255290A (en) * 2013-09-24 2013-12-19 Hitachi Ltd Image decoding method
JP2018520567A (en) * 2015-10-13 2018-07-26 メディアテック インコーポレイテッド Partial Decoding for Arbitrary View Angle and Line Buffer Reduction of Virtual Reality Video
CN114245122A (en) * 2016-10-04 2022-03-25 有限公司B1影像技术研究所 Image data encoding/decoding method, medium and method of transmitting bit stream

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8311089B2 (en) 2006-06-14 2012-11-13 Kddi Corporation Multi-view video compression coding method and apparatus
WO2008012918A1 (en) * 2006-07-28 2008-01-31 Kabushiki Kaisha Toshiba Image encoding and decoding method and apparatus
KR101011303B1 (en) 2006-07-28 2011-01-28 가부시끼가이샤 도시바 Image encoding and decoding method and apparatus
CN101502124B (en) * 2006-07-28 2011-02-23 株式会社东芝 Image encoding and decoding method and apparatus
AU2006346583B2 (en) * 2006-07-28 2011-04-28 Kabushiki Kaisha Toshiba Image encoding and decoding method and apparatus
RU2427976C2 (en) * 2006-07-28 2011-08-27 Кабусики Кайся Тосиба Method and device for coding and decoding of image
JP2012120238A (en) * 2012-02-09 2012-06-21 Hitachi Ltd Image decoding method
JP2013255290A (en) * 2013-09-24 2013-12-19 Hitachi Ltd Image decoding method
JP2018520567A (en) * 2015-10-13 2018-07-26 メディアテック インコーポレイテッド Partial Decoding for Arbitrary View Angle and Line Buffer Reduction of Virtual Reality Video
US11863732B1 (en) 2016-10-04 2024-01-02 B1 Institute Of Image Technology, Inc. Image data encoding/decoding method and apparatus
US11991339B2 (en) 2016-10-04 2024-05-21 B1 Institute Of Image Technology, Inc. Image data encoding/decoding method and apparatus
US11553168B2 (en) 2016-10-04 2023-01-10 B1 Institute Of Image Technology, Inc. Image data encoding/decoding method and apparatus
US11677926B1 (en) 2016-10-04 2023-06-13 B1 Institute Of Image Technology, Inc. Image data encoding/decoding method and apparatus
US11778158B2 (en) 2016-10-04 2023-10-03 B1 Institute Of Image Technology, Inc. Image data encoding/decoding method and apparatus
CN114245122A (en) * 2016-10-04 2022-03-25 有限公司B1影像技术研究所 Image data encoding/decoding method, medium and method of transmitting bit stream
US11936841B2 (en) 2016-10-04 2024-03-19 B1 Institute Of Image Technology, Inc. Image data encoding/decoding method and apparatus
US11949846B1 (en) 2016-10-04 2024-04-02 B1 Institute Of Image Technology, Inc. Image data encoding/decoding method and apparatus
US11962744B2 (en) 2016-10-04 2024-04-16 B1 Institute Of Image Technology, Inc. Image data encoding/decoding method and apparatus
US11463672B2 (en) 2016-10-04 2022-10-04 B1 Institute Of Image Technology, Inc. Image data encoding/decoding method and apparatus
US12028503B2 (en) 2016-10-04 2024-07-02 B1 Institute Of Image Technology, Inc. Image data encoding/decoding method and apparatus
US12108017B2 (en) 2016-10-04 2024-10-01 B1 Institute Of Image Technology, Inc. Image data encoding/decoding method and apparatus
US12132880B2 (en) 2016-10-04 2024-10-29 B1 Institute Of Image Technology, Inc. Image data encoding/decoding method and apparatus
US12219114B2 (en) 2016-10-04 2025-02-04 B1 Institute Of Image Technology, Inc. Image data encoding/decoding method and apparatus
US12225179B2 (en) 2016-10-04 2025-02-11 B1 Institute Of Image Technology, Inc. Image data encoding/decoding method and apparatus
US12238261B2 (en) 2016-10-04 2025-02-25 B1 Institute Of Image Technology, Inc. Image data encoding/decoding method and apparatus
US12244783B2 (en) 2016-10-04 2025-03-04 B1 Institute Of Image Technology, Inc. Image data encoding/decoding method and apparatus
US12256056B2 (en) 2016-10-04 2025-03-18 B1 Institute Of Image Technology, Inc. Image data encoding/decoding method and apparatus
US12278939B2 (en) 2016-10-04 2025-04-15 B1 Institute Of Image Technology, Inc. Image data encoding/decoding method and apparatus
US12323568B2 (en) 2016-10-04 2025-06-03 B1 Institute Of Image Technology, Inc. Image data encoding/decoding method and apparatus

Similar Documents

Publication Publication Date Title
US11856221B2 (en) Method and device for image encoding and decoding, and recording medium having bit stream stored therein
CN109691110B (en) Method and apparatus for encoding/decoding synchronous multi-view video using spatial layout information
RU2307478C2 (en) Method for compensating global movement for video images
US20250097467A1 (en) Method and apparatus of encoding/decoding image data based on tree structure-based block division
JP5563148B2 (en) Video encoding method and video decoding method
US12250405B2 (en) Method and apparatus of encoding/decoding image data based on tree structure-based block division
KR20180028299A (en) A method for seletively decoding a syncronized multi view video by using spatial layout information
JP2005260464A (en) Image encoding device, image decoding device, image encoding method, image decoding method, image encoding program, image decoding program, image encoding program recording medium, and image decoding program recording medium
JP6503014B2 (en) Moving picture coding method and moving picture decoding method
JP2005159824A (en) Image encoding method, image decoding method, image encoding device, image decoding device, image encoding program, image decoding program, and recording medium thereof
KR102804225B1 (en) A method for encoding/decoding a video based on moving information of 3-dimensional sphere
JP6510084B2 (en) Moving picture decoding method and electronic apparatus
KR20190022300A (en) A method for encoding/decoding a virtual reality video
RU2775829C1 (en) Method and apparatus for encoding/decoding an image and record medium storing a bitstream
KR100728032B1 (en) Warping-based intra prediction method
KR102804224B1 (en) A method for encoding/decoding a video based on moving information of 3-dimensional sphere
JP2016106494A (en) Moving image encoding method and moving image decoding method
JP5893178B2 (en) Video encoding method and video decoding method
JP5680778B2 (en) Video encoding method and video decoding method
JP2025505450A (en) Depth difference instead of motion vectors
JP2014112749A (en) Image coding device and image decoding device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080408

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080609

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080609

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080902

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081027

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090714