JP2005260464A - Image encoding device, image decoding device, image encoding method, image decoding method, image encoding program, image decoding program, image encoding program recording medium, and image decoding program recording medium - Google Patents
Image encoding device, image decoding device, image encoding method, image decoding method, image encoding program, image decoding program, image encoding program recording medium, and image decoding program recording medium Download PDFInfo
- Publication number
- JP2005260464A JP2005260464A JP2004067381A JP2004067381A JP2005260464A JP 2005260464 A JP2005260464 A JP 2005260464A JP 2004067381 A JP2004067381 A JP 2004067381A JP 2004067381 A JP2004067381 A JP 2004067381A JP 2005260464 A JP2005260464 A JP 2005260464A
- Authority
- JP
- Japan
- Prior art keywords
- image
- information
- encoding
- unit
- current frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
【課題】画面を複数の領域に分割した場合の画面の端の領域の符号化や高解像度の画像を複数の領域に分割する符号化などにおいて符号化効率を向上させる。
【解決手段】予測モード探索部13は,予測画像を作成する際に使用する画像情報を定める複数のパターンに対応する予測モードの中から参照フレームと現フレーム間の幾何学情報に従って予測モードを探索し決定する。予測画像作成部15は,決定された予測モードに従って前記幾何学情報を用いて予測画像を作成し,差分符号化部16は,入力画像情報と予測画像との差分を符号化する。予測モード符号化部14は,予測モードを符号化する。
【選択図】図7Coding efficiency is improved in coding of a region at the end of the screen when the screen is divided into a plurality of regions, coding for dividing a high-resolution image into a plurality of regions, and the like.
A prediction mode search unit searches for a prediction mode in accordance with geometric information between a reference frame and a current frame from prediction modes corresponding to a plurality of patterns that define image information used when creating a prediction image. And decide. The predicted image creation unit 15 creates a predicted image using the geometric information according to the determined prediction mode, and the difference encoding unit 16 encodes the difference between the input image information and the predicted image. The prediction mode encoding unit 14 encodes the prediction mode.
[Selection] Figure 7
Description
本発明は,フレーム間予測符号化方式を用いた複数フレームの画像符号化に関する技術である。 The present invention is a technique related to image coding of a plurality of frames using an inter-frame predictive coding method.
一般的に動画像符号化では,時間方向の相関を使って高い符号化効率を実現するため,フレーム間予測符号化を用いている。フレームの符号化モードには,フレーム間の相関を使わずに符号化するIフレームと,過去に符号化した1フレームから予測するPフレームと,過去に符号化した2フレームから予測することができるBフレームとがある。 In general, in moving picture coding, inter-frame prediction coding is used in order to achieve high coding efficiency using temporal correlation. The frame encoding mode can be predicted from an I frame that is encoded without using correlation between frames, a P frame that is predicted from one previously encoded frame, and two previously encoded frames. There are B frames.
Bフレームでは,参照画像メモリに2フレーム分の復号画像を蓄積しておく必要がある。特に映像符号化方式H.263とH.264では,参照画像メモリに2フレーム以上の複数フレーム分の復号画像を蓄積しておき,その参照画像メモリから参照画像を選択して予測することができる。 In the B frame, it is necessary to store the decoded image for two frames in the reference image memory. In particular, video encoding system H.264. H.263 and H.H. In H.264, decoded images of two or more frames are accumulated in a reference image memory, and a reference image can be selected and predicted from the reference image memory.
参照画像はブロックごとに選択することができ,参照画像を指定する参照画像指定情報を符号化する。参照画像メモリには,短時間用(STRM)と長時間用(LTRM)があり,STRMには現フレームの復号画像を蓄積していき,LTRMにはSTRMに蓄積されている画像を選択して蓄積する。LTRMとSTRMの制御方法について記載した文献としては,例えば下記の非特許文献1が挙げられる。
A reference image can be selected for each block, and reference image designation information for designating a reference image is encoded. The reference image memory has a short time (STRM) and a long time (LTRM). The decoded image of the current frame is stored in the STRM, and the image stored in the STRM is selected in the LTRM. accumulate. As a document describing the control method of LTRM and STRM, for example, the following
参照画像指定情報としては,H.263 Annex NのようにTR(Temporal Reference)を用いる手法や,H.263 Annex UやH.264のように,別途indexを定義する手法が提案されている。 Reference image designation information includes H.264. A method using TR (Temporal Reference) such as H.263 Annex N, H.264 H.263 Annex U or H.264. As in H.264, a method for separately defining an index has been proposed.
TRは,MPEG−1,MPEG−2やH.261,H.263といった国際標準動画像符号化で採用されている各フレームの出力時刻の情報であり,フレームごとに固定長符号化される。システムで基準となる時間間隔を予め設定しておき,その時間間隔とTRの積でシーケンス先頭からの時刻を示す。エンコーダでは,入力画像の時刻情報をTRに設定して各フレームを符号化し,デコーダでは,各フレームの復号画像をTRで指定された時刻に出力する。 TR is MPEG-1, MPEG-2 and H.264. 261, H.M. This is information on the output time of each frame employed in international standard video encoding such as H.263, and is fixed-length encoded for each frame. A reference time interval is set in advance in the system, and the time from the beginning of the sequence is indicated by the product of the time interval and TR. The encoder sets time information of the input image to TR to encode each frame, and the decoder outputs the decoded image of each frame at the time specified by TR.
このTRを用いる場合には,TRは一般的に固定長で符号化されるため参照画像指定情報の発生頻度を反映しておらず,符号化効率が悪い。別途indexを用いる手法では,indexを例えば可変長符号化することにより,参照画像指定情報の発生頻度を反映してエントロピー符号化を行うことができる。 When this TR is used, since the TR is generally encoded with a fixed length, it does not reflect the occurrence frequency of the reference image designation information, and the encoding efficiency is poor. In a method using an index separately, entropy encoding can be performed by reflecting the frequency of occurrence of reference image designation information by, for example, variable-length encoding the index.
また,特に静止画像の場合,現フレームの既に復号した画像情報を使って予測画像を作成して残差信号を符号化するイントラ予測符号化もある。 In particular, in the case of a still image, there is intra prediction encoding in which a prediction image is created using image information already decoded in the current frame and a residual signal is encoded.
図18は,JPEG−LSにおける予測に使用する画素位置の例を示す図である。例えばJPEG−LSでは,図18に示すような符号化対象画素の周辺の画像情報から予測画像を作成する。図18において,画素xの予測画像は,画素a,b,c,dの復号画像から作成される。 FIG. 18 is a diagram illustrating an example of pixel positions used for prediction in JPEG-LS. For example, in JPEG-LS, a predicted image is created from image information around an encoding target pixel as shown in FIG. In FIG. 18, the predicted image of pixel x is created from the decoded images of pixels a, b, c, and d.
図19は,H.264におけるイントラ予測の例を示す図である。H.264のイントラ予測では,周囲のブロックの復号画像から予測画像を作成する手法が採用されている。このようなイントラ予測では,予測画像を作成する方法が複数モードあり,最も符号化効率のよいモードを探索し,そのモード情報も符号化する。図19において,a,b,…,pは現ブロックの画素を示し,A,B,…,Qは既に復号された画素を示す。図19に示した矢印に載る画素位置の予測画像は,画素D,E,Fの画像情報から作成される。 FIG. 2 is a diagram illustrating an example of intra prediction in H.264. H. In the H.264 intra prediction, a method of creating a predicted image from decoded images of surrounding blocks is employed. In such intra prediction, there are a plurality of modes for creating a predicted image, a mode with the highest coding efficiency is searched, and the mode information is also coded. 19, a, b,..., P indicate the pixels of the current block, and A, B,..., Q indicate already decoded pixels. The predicted image at the pixel position placed on the arrow shown in FIG. 19 is created from the image information of the pixels D, E, and F.
図20は,内挿補間の例を示す図である。図19のように外挿補間により予測画像を作成するのではなく,図20に示すように,まだ符号化されていない画素位置の画像情報を用い,その画像情報と既に符号化され復号されている画像情報との補間により,予測画像を作成する内挿補間手法も提案されている(例えば,非特許文献2参照)。この場合,符号化されていない位置の画像情報と,予測方法とを探索して決定する。この場合には,符号化されていない位置の画像情報と,予測モードと予測残差とが符号化される。もっとも,まだ符号化されていない位置の画像情報も,既に符号化され復号された画像情報から予測画像を作成して,その予測残差を符号化するようにしてもよい。 FIG. 20 is a diagram illustrating an example of interpolation. Instead of creating a predicted image by extrapolation as shown in FIG. 19, as shown in FIG. 20, image information at pixel positions that have not yet been encoded is used and the image information is already encoded and decoded. An interpolation method for creating a predicted image by interpolation with existing image information has also been proposed (see, for example, Non-Patent Document 2). In this case, the image information at the uncoded position and the prediction method are searched and determined. In this case, the image information at the uncoded position, the prediction mode, and the prediction residual are encoded. Of course, it is also possible to create a prediction image from image information that has already been encoded and decoded for image information at a position that has not yet been encoded, and encode the prediction residual.
これらの内挿補間と外挿補間との違いは,予測される順序が異なるだけである。基本的には,どちらも現フレーム内の画像情報を使って予測する。一般的に,内挿補間の方が外挿補間よりも予測に使用する画像情報を多く選択できるため,予測効率は高い。 The only difference between these interpolations and extrapolations is the predicted order. Basically, both are predicted using the image information in the current frame. In general, the interpolation efficiency is higher in the prediction efficiency because the image information used for the prediction can be selected more than in the interpolation interpolation.
他方,超広角カメラを使って撮影される全方位映像がある。全方位映像の符号化方法としては,全方位映像を一度3次元ポリゴンの表面にマッピングし,さらに全ポリゴン平面を矩形の2次元画像にマッピングして,2次元映像として符号化する手法が提案されている。 On the other hand, there are omnidirectional images that are shot using an ultra-wide-angle camera. As a method for encoding an omnidirectional video, a method has been proposed in which an omnidirectional video is once mapped onto the surface of a three-dimensional polygon, and further, an all-polygon plane is mapped to a rectangular two-dimensional image and encoded as a two-dimensional video. ing.
図21は,全方位映像の8面体への投影の例を示す図である。3次元ポリゴンの形状は任意であるが,例えば,非特許文献3では,図21に示すような8面体を用いる手法が提案されている。図21(a)に示すような8面体に投影された全方位映像から,図21(b)に示すような上の四角錐の画像と下の四角錐の画像とが作成され,再配列により,図21(c)に示すような全方位映像を1つの矩形画面にマッピングした画像が作成される。
FIG. 21 is a diagram illustrating an example of projection of an omnidirectional video onto an octahedron. Although the shape of the three-dimensional polygon is arbitrary, for example, Non-Patent
これらの方式では全方位の映像を1つの矩形の画面にマッピングしているが,複数の画面にマッピングしてもよい。例えば8面体の場合には,上の四角錐からの画像情報を1つの画面として,下の四角錐からの画像情報を1つの画面として,合計2画面の画像情報として扱ってもよい。このようにすれば,全方位の映像を1つの画面にマッピングする手法よりも低い空間解像度の画像を複数持つ構成にすることが可能である。復号側では,低い解像度の画面にすれば,画面全体の画像情報を復号するための時間が少なくなり,より早く再生画面の表示が可能となる利点がある。 In these methods, an omnidirectional video is mapped to one rectangular screen, but may be mapped to a plurality of screens. For example, in the case of an octahedron, image information from the upper quadrangular pyramid may be handled as one screen, and image information from the lower quadrangular pyramid may be handled as one screen, and may be handled as a total of two screens of image information. In this way, it is possible to have a configuration having a plurality of images having a lower spatial resolution than the method of mapping an omnidirectional video on one screen. On the decoding side, if the screen has a low resolution, there is an advantage that the time for decoding the image information of the entire screen is reduced and the playback screen can be displayed more quickly.
このような複数の画面で構成される画像を画面ごとに個別に符号化してもよいし,各画面を1つの映像の個々のフレームに対応させて1つの映像として符号化してもよい。これらの映像は,1つの映像中で1フレームおきに符号化してもよい。フレームごとに,時刻情報TRの他に,もともとどの映像に属していたのかを示すカテゴリ情報を符号化しておく。 Such an image composed of a plurality of screens may be individually encoded for each screen, or each screen may be encoded as one video in association with each frame of one video. These videos may be encoded every other frame in one video. For each frame, in addition to the time information TR, category information indicating which video originally belonged is encoded.
図22は,全方位映像の立方体への投影の例を示す図である。全方位映像を投影する多面体は,図21に示すような8面体に限らず,例えば図22に示すような立方体でもよい。映像S1の裏側に映像S6があり,映像S2の裏側に映像S5があり,映像S3の裏側に映像S4があるものとする。このような幾何学情報の関係がある場合に,映像S1から映像S6までをまとめて1つの映像として符号化してもよい。これらの映像は,1つの映像中で1フレームおきに符号化していく。フレームごとに,時刻情報TRの他に,もともと映像S1から映像S6までのいずれの映像なのかを示すカテゴリ情報を符号化しておく。 FIG. 22 is a diagram illustrating an example of projection of an omnidirectional video onto a cube. The polyhedron for projecting the omnidirectional video is not limited to the octahedron as shown in FIG. 21, but may be a cube as shown in FIG. Assume that there is a video S6 on the back side of the video S1, a video S5 on the back side of the video S2, and a video S4 on the back side of the video S3. When there is such a geometric information relationship, the video S1 to the video S6 may be collectively encoded as one video. These videos are encoded every other frame in one video. For each frame, in addition to the time information TR, category information indicating which video is originally from the video S1 to the video S6 is encoded.
また,高解像度の画像の符号化については,この画面を複数の領域に分割して個々の分割領域を符号化する手法がある。 As for high-resolution image encoding, there is a method of encoding each divided region by dividing the screen into a plurality of regions.
図23は,高解像度画像の画面分割の例を示す図である。例えば,図23に示すように画面を縦方向に2分割する手法がある。この分割手法は,例えば解像度が大きくて復号するための演算処理時間が多くかかる場合に,領域ごとに復号器を備えることによって演算時間を短縮するために利用されたり,または,符号化データを伝送する場合の伝送エラーからの回復に利用される。 FIG. 23 is a diagram illustrating an example of screen division of a high resolution image. For example, as shown in FIG. 23, there is a method of dividing the screen into two in the vertical direction. This division method is used to shorten the computation time by providing a decoder for each area, for example, when the resolution is high and it takes a lot of computation time to decode, or to transmit encoded data This is used to recover from transmission errors.
なお,後述する本発明の実施の形態に利用される技術が記載されている文献としては,非特許文献4,非特許文献5,非特許文献6などがある。
画面を領域に分割してイントラ予測を行う符号化では,領域内の画像情報と予測画像との間の差分(予測残差)が少ないと符号化効率が高くなるため,このような予測符号化モードを探索し,決定する。 In coding that divides the screen into regions and performs intra prediction, coding efficiency increases when the difference (prediction residual) between image information in the region and the predicted image is small. Search and determine the mode.
従来のイントラ予測符号化では,現フレームの既に符号化され復号された画像情報を使って予測画像を作成している。そのため,画面の端の部分では,既に符号化され復号されている部分が限定されており,予測方法が限定される問題があった。また,高解像度の画像を複数の領域に分割して符号化する場合においては,個々の分割領域は個別に符号化していたため,符号化効率が低減する問題があった。 In the conventional intra prediction encoding, a prediction image is created using image information of the current frame that has already been encoded and decoded. Therefore, in the end portion of the screen, the portion that has already been encoded and decoded is limited, and there is a problem that the prediction method is limited. In addition, when a high-resolution image is divided into a plurality of regions and encoded, there is a problem that the encoding efficiency is reduced because each divided region is individually encoded.
本発明は,上記の問題点を解決し,画面を複数の領域に分割した場合の画面の端の領域の符号化や高解像度の画像を複数の領域に分割する符号化などにおいて,符号化効率を向上させることを目的とする。 The present invention solves the above-mentioned problems, and in the encoding of the area at the end of the screen when the screen is divided into a plurality of areas, the encoding efficiency for dividing a high resolution image into a plurality of areas, etc. It aims at improving.
上記課題を解決するため,本発明の画像符号化装置は,参照画像を蓄積しておき,現フレームを分割した領域内の画像情報を,フレーム間予測符号化を用いて符号化する画像符号化装置であって,複数フレームの参照画像を蓄積する参照画像メモリと,予め設定された参照フレームと現フレーム間の幾何学情報を用いて,参照フレームの画像情報と現フレームの画像情報とから現フレームの予測画像を作成する予測画像作成部と,前記現フレームを分割した領域内の画像情報と予測画像の差分を符号化する差分符号化部とを備えることを特徴とする。 In order to solve the above problems, an image coding apparatus according to the present invention accumulates a reference image and encodes image information in an area obtained by dividing the current frame using inter-frame prediction coding. The apparatus uses a reference image memory for storing a reference image of a plurality of frames, and geometric information between a reference frame and a current frame that are set in advance, based on the image information of the reference frame and the image information of the current frame. A prediction image generation unit that generates a prediction image of a frame, and a difference encoding unit that encodes a difference between the image information in the region into which the current frame is divided and the prediction image are provided.
また,本発明の画像復号装置は,参照画像を蓄積しておき,現フレームを分割した領域内の画像情報を,フレーム間予測符号化を用いて復号する画像復号装置であって,複数フレームの参照画像を蓄積する参照画像メモリと,差分画像情報を復号する差分復号部と,予め設定された参照フレームと現フレーム間の幾何学情報を用いて,参照フレームの画像情報と現フレームの画像情報とから現フレームの予測画像を作成する予測画像作成部と,予測画像と差分画像情報とから復号画像を作成する復号画像作成部とを備えることを特徴とする。 An image decoding apparatus according to the present invention is an image decoding apparatus that accumulates reference images and decodes image information in an area obtained by dividing a current frame using inter-frame prediction encoding, and includes a plurality of frames. The reference frame image information and the current frame image information are stored using a reference image memory for storing the reference image, a difference decoding unit for decoding the difference image information, and geometric information between the preset reference frame and the current frame. And a decoded image generating unit that generates a decoded image from the predicted image and the difference image information.
これにより,異なる撮影地点や撮影方向のカメラで撮影された複数の画像を複数のフレームとみなして符号化する場合について,既に符号化され復号されたフレーム(参照フレーム)の画像情報と,現フレームで既に符号化され復号された画素位置の画像情報とから予測画像を作成することができる。 Thus, when encoding a plurality of images taken by cameras at different shooting points and shooting directions as a plurality of frames, the image information of the already encoded and decoded frame (reference frame) and the current frame are encoded. The prediction image can be created from the image information of the pixel position that has already been encoded and decoded.
例えば,図21に示すような画像で領域D1からD4までの画像を符号化する際に,領域U1からU4までの画像が既に符号化され復号されているとすると,これらの画像情報を図19の画素AからPまでのいずれかとみなすことにより,図19に示すような予測画像の作成を行うことができる。 For example, when the images from the regions D1 to D4 are encoded with the images as shown in FIG. 21, if the images from the regions U1 to U4 are already encoded and decoded, the image information is shown in FIG. By considering any one of the pixels A to P, a predicted image as shown in FIG. 19 can be created.
また,例えば,図23に示すように画面を分割する場合には,先に下の部分の画像を符号化して復号しておき,これを参照フレームとすれば,図23の上の部分の画像情報について予測画像を作成する際に,下の部分の画像情報(参照フレーム)を使用することが可能となる。したがって,上の部分で既に符号化され復号された画像情報があるとすると,図20に示すような内挿補間と同じになり,予測効率を向上することができる。なお,分割する目的が演算量の分散であるならば,上の部分で2ライン目を符号化する場合には既に下の部分の1ライン目を復号済みであるため,予測に使用することが可能である。 Also, for example, when the screen is divided as shown in FIG. 23, if the lower part of the image is first encoded and decoded and this is used as a reference frame, the upper part of FIG. When creating a predicted image for information, it is possible to use the image information (reference frame) in the lower part. Therefore, if there is already encoded and decoded image information in the upper part, it becomes the same as the interpolation shown in FIG. 20, and the prediction efficiency can be improved. If the purpose of the division is to distribute the amount of computation, when the second line is encoded in the upper part, the first line in the lower part has already been decoded, so that it can be used for prediction. Is possible.
参照フレーム内から予測に使用する画素の位置を選択する際に,参照フレームと現フレームとの間の幾何学情報を使用する。上記の例のように,参照フレームの端の画像情報を使用してもよいし,参照フレーム内部の画像情報を使用してもよい。 Geometric information between the reference frame and the current frame is used when selecting a pixel position to be used for prediction from within the reference frame. As in the above example, image information at the end of the reference frame may be used, or image information inside the reference frame may be used.
図1は,複数カメラからの映像の例を示す図である。例えば,図1(a)に示すような幾何学情報の関係があるカメラAとカメラBの画像(図1(b))の場合には,カメラAの画像(参照フレーム)内部(位置X)の画像情報と,カメラBの画像(現フレーム)の画像情報とを使って予測画像を作成する。図1(b)において,カメラAの画像の位置Xは,カメラBの画像の左端に相当する。 FIG. 1 is a diagram illustrating an example of images from a plurality of cameras. For example, in the case of an image of camera A and camera B (FIG. 1B) having a geometric information relationship as shown in FIG. 1A, the inside of the image (reference frame) of camera A (position X) And the image information of the image of the camera B (current frame) are used to create a predicted image. In FIG. 1B, the position X of the image of the camera A corresponds to the left end of the image of the camera B.
また,この発明を動画像に適用してもよい。例えば,図21に示した各領域が動画像を構成している場合には,現フレームの予測画像を作成するにあたり,より多くの参照フレームから候補を選択することが可能となる。また,これは特にカメラ撮像系が移動する場合に有効である。 Further, the present invention may be applied to moving images. For example, when each region shown in FIG. 21 forms a moving image, it is possible to select candidates from more reference frames when creating a predicted image of the current frame. This is particularly effective when the camera imaging system moves.
図2は,カメラが移動した場合の予測画像作成の例を示す図である。図2(a)に示すように,1つのカメラの位置が移動(位置A→位置B)した場合の手順を示す。この場合,1つの映像の中の,異なる時刻の参照フレームの画像情報と,現時刻のフレームの画像情報とから予測画像を作成することとなる。各時刻における映像の幾何学情報を測定しておき,図2(b)に示すように,参照フレームと現フレームとの間の幾何学情報を決定する。フレームごとに,時刻情報TRの他に,このような幾何学情報を符号化しておく。図2(b)において,位置Aの画像の位置Xは,位置Bの画像の左端に相当する。 FIG. 2 is a diagram illustrating an example of creating a predicted image when the camera moves. As shown in FIG. 2A, a procedure when the position of one camera is moved (position A → position B) is shown. In this case, a predicted image is created from image information of reference frames at different times and image information of frames at the current time in one video. The geometric information of the video at each time is measured, and the geometric information between the reference frame and the current frame is determined as shown in FIG. In addition to the time information TR, such geometric information is encoded for each frame. In FIG. 2B, the position X of the image at the position A corresponds to the left end of the image at the position B.
なお,このように予測画像の作成に使用した参照フレームの画像情報と,現フレームでの符号化対象位置の復号画像との間で,適切なフィルタを適用してもよい。このフィルタの処理により,参照フレームと現フレームとの間の歪が平均化され,主観的な品質を向上することができる。 Note that an appropriate filter may be applied between the image information of the reference frame used to create the predicted image and the decoded image at the encoding target position in the current frame. By this filter processing, distortion between the reference frame and the current frame is averaged, and subjective quality can be improved.
また,参照フレームから使用する画像情報を選択した後に,この画像情報の値を計算により変更し,それから使用するようにしてもよい。例えば,参照フレームと現フレームとの間で平均的な画素値が異なっている場合には,画素値を例えば非特許文献4の手法によって修正した後に使用するようにしてもよい。 Further, after selecting image information to be used from the reference frame, the value of this image information may be changed by calculation and then used. For example, when the average pixel value is different between the reference frame and the current frame, the pixel value may be used after being corrected by the method of Non-Patent Document 4, for example.
なお,ロスレス符号化の場合には,既に符号化され復号された画像情報を参照フレームにするのではなく,参照フレームの原画像を使用してもよい。 In the case of lossless coding, the original image of the reference frame may be used instead of using the already encoded and decoded image information as the reference frame.
画像間の幾何学情報は,撮像系を構築した際に予め測定したものを用いてもよいし,カメラ撮像系が移動する場合には,そのカメラ撮像系の位置情報の移動量を用いてもよい。この位置情報をGPS等を用いて計測することも可能である。特に,動画像において撮像系が固定の場合には,幾何学情報を毎フレーム符号化する必要はなく,予め設定しておいてもよい。 Geometric information between images may be measured in advance when the imaging system is constructed, or if the camera imaging system moves, the movement amount of the position information of the camera imaging system may be used. Good. It is also possible to measure this position information using GPS or the like. In particular, when the imaging system is fixed in a moving image, the geometric information need not be encoded every frame, and may be set in advance.
幾何学情報が時間と共に変化する場合には,幾何学情報も符号化して符号化データに含めておき,復号側でその情報を使用することも可能である。幾何学情報を符号化する場合には,
・カメラの位置情報,
・絶対座標系における映像の位置情報,
・映像の相対的な位置情報,
のいずれかを符号化対象としてよい。
When the geometric information changes with time, the geometric information can be encoded and included in the encoded data, and the information can be used on the decoding side. When encoding geometric information,
・ Camera position information,
-Image position information in the absolute coordinate system,
・ Relative position information of video,
Any of the above may be the encoding target.
特に,カメラが移動する場合には,相対的な位置情報が好適である。映像の相対的な位置情報としては,画面間の移動量を利用する方法も好適である。 In particular, when the camera moves, relative position information is suitable. A method using the amount of movement between screens is also suitable as the relative position information of the video.
図3は,2画面間の位置関係の表現方法の例を示す図である。例えば,図3に示すように,画面Aと画面Bがあるとすると,これらの相対的な位置情報は,画面Bの四隅の画素の位置を基準とする画面Aの四隅の画素の位置情報,すなわち(x1,y1),(x2,y2),(x3,y3),(x4,y4)という位置情報で表現してもよい。 FIG. 3 is a diagram illustrating an example of a method for expressing the positional relationship between two screens. For example, as shown in FIG. 3, if there are a screen A and a screen B, the relative position information thereof includes the position information of the four corner pixels of the screen A based on the positions of the four corner pixels of the screen B, That is, it may be expressed by positional information of (x1, y1), (x2, y2), (x3, y3), (x4, y4).
また,現フレームの符号化効率が最も高くなるように,画像情報から幾何学情報を推定してもよい。幾何学情報を符号化データに含めてもよく,この場合には,符号化データ中の幾何学情報を使用して,参照フレームから使用する画像情報を選択する。 Further, the geometric information may be estimated from the image information so that the encoding efficiency of the current frame is the highest. Geometric information may be included in the encoded data. In this case, image information to be used is selected from the reference frame using the geometric information in the encoded data.
本発明によれば,広角カメラの映像や複数のカメラからの映像,または移動しているカメラからの映像を符号化する場合に,参照フレームと現フレームとの間の幾何学情報を用いて,別のカメラからの画像または過去の画像の復号画像と,現フレームの復号画像とから予測画像を作成することにより,符号化効率を向上することができる。 According to the present invention, when encoding video from a wide-angle camera, video from a plurality of cameras, or video from a moving camera, using geometric information between the reference frame and the current frame, Coding efficiency can be improved by creating a predicted image from a decoded image of an image from another camera or a past image and a decoded image of the current frame.
以下,本発明の実施の形態について,図を用いて説明する。まず,本発明の実施の形態における予測画像の作成ついて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. First, creation of a predicted image in the embodiment of the present invention will be described.
図4は,本実施の形態の予測画像の作成に使用する画素の位置の例を示す図である。本実施の形態における予測画像の作成では,縦横16画素のマクロブロックについて,図4(A)〜(O)に示す配置の画像情報を用いて予測画像を作成する。図4(A)〜(D)は,上下左右のいずれか1方向の画像情報を用いて予測画像を作成する場合の例を示し,図4(E)〜(J)は,上下左右のいずれか2方向の画像情報を用いて予測画像を作成する場合の例を示し,図4(K)〜(N)は,上下左右のいずれか3方向の画像情報を用いて予測画像を作成する場合の例を示し,図4(O)は,上下左右のすべての方向の画像情報を用いて予測画像を作成する場合の例を示している。 FIG. 4 is a diagram illustrating an example of pixel positions used for creating a predicted image of the present embodiment. In the creation of a predicted image in the present embodiment, a predicted image is created using image information having the arrangement shown in FIGS. 4A to 4O for macroblocks of 16 pixels in length and width. FIGS. 4A to 4D show examples in the case where a predicted image is created using image information in one of the upper, lower, left and right directions, and FIGS. FIGS. 4K to 4N show an example of creating a predicted image using image information in any one of three directions (up, down, left, and right). FIG. 4 (O) shows an example in which a predicted image is created using image information in all directions of up, down, left, and right.
図5は,現マクロブロックの周囲画素の位置関係を示す図である。図5に示すように,現マクロブロック(このときに予測画像の作成対象となっているマクロブロック)の上に配置されている画素を p1[i](i=1,…,16),左に配置されている画素を p2[j](j=1,…,16),右に配置されている画素を p3[j](j=1,…,16),下に配置されている画素を p4[i](i=1,…,16)とする。 FIG. 5 is a diagram showing the positional relationship of the surrounding pixels of the current macroblock. As shown in FIG. 5, the pixels arranged on the current macroblock (the macroblock that is the target for creating the predicted image at this time) are represented by p1 [i] (i = 1,..., 16), left P2 [j] (j = 1,..., 16), the pixel arranged on the right is p3 [j] (j = 1,..., 16), and the pixel arranged below P4 [i] (i = 1,..., 16).
本実施の形態では,これらの画素を使い,次に示すパターンの予測モードのいずれかを適用して,マクロブロック内画素 q[j][i](i,j=1,…,16)を求める。ただし,iは横方向の位置を示し,jは縦方向の位置を示す。また,Σk は,Σk 以下に続く式のkが1から16までの総和を示す。 In the present embodiment, these pixels are used, and any one of the following pattern prediction modes is applied, and the pixels in macroblock q [j] [i] (i, j = 1,..., 16) are Ask. However, i shows the position of a horizontal direction and j shows the position of a vertical direction. In addition, Σ k represents the total sum from 1 to 16 in the equation following Σ k .
○パターン1
使用する画素:図4(A)
予測画像の作成式:
q[j][i] =p2[j] (1).
○パターン2
使用する画素:図4(B)
予測画像の作成式:
q[j][i] =p1[i] (2).
○パターン3
使用する画素:図4(C)
予測画像の作成式:
q[j][i] =p3[j] (3).
○パターン4
使用する画素:図4(D)
予測画像の作成式:
q[j][i] =p4[i] (4).
○パターン5
使用する画素:図4(E)
予測画像の作成式:
q[j][i] =(Σk (p1[k] +p2[k] ))/32 (5).
○パターン6
使用する画素:図4(F)
予測画像の作成式:
q[j][i] =(Σk (p1[k] +p3[k] ))/32 (6).
○パターン7
使用する画素:図4(G)
予測画像の作成式:
q[j][i] =(Σk (p4[k] +p3[k] ))/32 (7).
○パターン8
使用する画素:図4(H)
予測画像の作成式:
q[j][i] =(Σk (p4[k] +p2[k] ))/32 (8).
○パターン9
使用する画素:図4(I)
予測画像の作成式:
q[j][i] =(p1[i] +p4[i] )/2 (9).
○パターン10
使用する画素:図4(J)
予測画像の作成式:
q[j][i] =(p2[j] +p3[j] )/2 (10).
○パターン11
使用する画素:図4(K)
予測画像の作成式:
q[j][i] =(Σk (p1[k] +p2[k] +p4[k] ))/48 (11).
○パターン12
使用する画素:図4(L)
予測画像の作成式:
q[j][i] =(Σk (p1[k] +p2[k] +p3[k] ))/48 (12).
○パターン13
使用する画素:図4(M)
予測画像の作成式:
q[j][i] =(Σk (p1[k] +p3[k] +p4[k] ))/48 (13).
○パターン14
使用する画素:図4(N)
予測画像の作成式:
q[j][i] =(Σk (p2[k] +p3[k] +p4[k] ))/48 (14).
○パターン15
使用する画素:図4(O)
予測画像の作成式:
q[j][i] =(Σk (p1[k] +p2[k] +p3[k] +p4[k] ))/64 (15).
ここで,各パターンにおいて,予測画像を作成する際の計算式は,上記のものと異なるものを設定してもよい。例えば,パターン5において,上記の式(5)の代わりに次のような計算式を用いてもよい。
○
Pixel used: FIG. 4 (A)
Predictive image creation formula:
q [j] [i] = p2 [j] (1).
○
Pixel used: FIG. 4B
Predictive image creation formula:
q [j] [i] = p1 [i] (2).
○
Pixels used: FIG. 4C
Predictive image creation formula:
q [j] [i] = p3 [j] (3).
○ Pattern 4
Pixel used: FIG. 4 (D)
Predictive image creation formula:
q [j] [i] = p4 [i] (4).
○
Pixel used: FIG. 4 (E)
Predictive image creation formula:
q [j] [i] = (Σ k (p1 [k] + p2 [k])) / 32 (5).
○
Pixel used: FIG. 4 (F)
Predictive image creation formula:
q [j] [i] = (Σ k (p1 [k] + p3 [k])) / 32 (6).
○ Pattern 7
Pixel used: FIG. 4 (G)
Predictive image creation formula:
q [j] [i] = (Σ k (p4 [k] + p3 [k])) / 32 (7).
○ Pattern 8
Pixel used: FIG. 4 (H)
Predictive image creation formula:
q [j] [i] = (Σ k (p4 [k] + p2 [k])) / 32 (8).
○ Pattern 9
Pixel used: FIG. 4 (I)
Predictive image creation formula:
q [j] [i] = (p1 [i] + p4 [i]) / 2 (9).
○ Pattern 10
Pixel used: FIG. 4 (J)
Predictive image creation formula:
q [j] [i] = (p2 [j] + p3 [j]) / 2 (10).
○
Pixel used: FIG. 4 (K)
Predictive image creation formula:
q [j] [i] = (Σ k (p1 [k] + p2 [k] + p4 [k])) / 48 (11).
○
Pixel used: FIG. 4 (L)
Predictive image creation formula:
q [j] [i] = (Σ k (p1 [k] + p2 [k] + p3 [k])) / 48 (12).
○
Pixel used: FIG. 4 (M)
Predictive image creation formula:
q [j] [i] = (Σ k (p1 [k] + p3 [k] + p4 [k])) / 48 (13).
○
Pixel used: FIG. 4 (N)
Predictive image creation formula:
q [j] [i] = (Σ k (p2 [k] + p3 [k] + p4 [k])) / 48 (14).
○
Pixel used: FIG. 4 (O)
Predictive image creation formula:
q [j] [i] = (Σ k (p1 [k] + p2 [k] + p3 [k] + p4 [k])) / 64 (15).
Here, in each pattern, a calculation formula for creating a predicted image may be set differently from the above. For example, in the
○パターン5−2
使用する画素:図4(E)
予測画像の作成式:
q[j][i] =(p1[i] +p2[j] )/2 (16).
また,このようにマクロブロック内で同じ計算式で予測画像を作成するのではなく,非特許文献5のように,既に作成した予測画像を再帰的に利用して予測画像を作成してもよい。また,マクロブロックを小領域に分割して領域ごとに予測画像を作成してもよい。また,非特許文献6のように,ブロック内での予測画像の変化を示すパラメータを符号化するようにしてもよい。
○ Pattern 5-2
Pixel used: FIG. 4 (E)
Predictive image creation formula:
q [j] [i] = (p1 [i] + p2 [j]) / 2 (16).
In addition, instead of creating a prediction image with the same calculation formula in a macroblock as described above, a prediction image may be created by recursively using a prediction image that has already been created as in
〔第1の実施の形態〕
次に,本発明の実施の形態における画像符号化,画像復号について説明する。まず,本発明の第1の実施の形態として,図22に示したような全方位映像を符号化する際の手順を示す。
[First Embodiment]
Next, image encoding and image decoding in the embodiment of the present invention will be described. First, a procedure for encoding an omnidirectional video as shown in FIG. 22 will be described as the first embodiment of the present invention.
図6は,複数カメラからの映像の符号化順序の例を説明する図である。図22に示すように,全方位映像は立方体に投影され,図6に示すように,同一TRごとに,映像S1から映像S6までを交互に符号化するものとする。 FIG. 6 is a diagram for explaining an example of an encoding order of videos from a plurality of cameras. As shown in FIG. 22, the omnidirectional video is projected onto a cube, and as shown in FIG. 6, video S1 to video S6 are encoded alternately for the same TR.
ここでは,映像S1から映像S6までの間に図22に示す幾何学情報の関係があることを前提にして,参照フレームから予測符号化に利用する画素位置を決定する。このとき,画像S6のフレームを縦横16画素マクロブロックに分割し,マクロブロックごとに差分符号化データの符号量が最小となるように予測画像の作成方法を選択して符号化する例を示す。参照画像メモリには,画像S1から画像S5までの現時刻の画像が既に蓄積されているものとする。 Here, on the assumption that the geometric information shown in FIG. 22 exists between video S1 and video S6, the pixel position used for predictive coding is determined from the reference frame. At this time, an example is shown in which the frame of the image S6 is divided into 16 pixels vertically and horizontally macroblocks, and a prediction image creation method is selected and encoded so that the code amount of differentially encoded data is minimized for each macroblock. It is assumed that images at the current time from image S1 to image S5 are already stored in the reference image memory.
図7に,本実施の形態における画像符号化装置の構成例を示す。画像符号化装置は,画像情報を取り込む画像入力部11と,複数フレームの参照画像を蓄積することが可能な参照画像メモリ12と,予測モードの探索を行う予測モード探索部13と,予測モードを符号化する予測モード符号化部14と,予測画像を作成する予測画像作成部15と,入力画像情報と予測画像との差分を符号化する差分符号化部16と,差分符号化部16で作成された差分符号化データを復号して復号画像を作成する復号部17と,予測画像作成部15で使用する参照画像を切り替える参照画像切替部18とを備える。
FIG. 7 shows a configuration example of the image coding apparatus according to the present embodiment. The image encoding device includes an
参照画像メモリ12には,画像S1から画像S6までの6フレーム分の画像を蓄積できるメモリが備えてあり,各対応した画像の直前のフレームの画像情報を蓄積する。画像入力部11は,入力画像をマクロブロックに分割するものとする。
The
図8は,本実施の形態における予測画像作成時の使用画素決定処理フローチャートである。予測モード探索部13および予測画像作成部15は,符号化を行う画像S6のマクロブロック(以下,MBともいう)について,図8に示すフローチャートに従って,予測画像を作成する際に使用することができる画素を決定する。なお,ここでは左上MBから順に符号化を行うものとする。
FIG. 8 is a use pixel determination process flowchart when creating a predicted image in the present embodiment. The prediction
図9は,本実施の形態における立方体の参照フレームの画素位置の例を示す図である。画像S6を中心に立方体を展開したときの画像S6の周囲の位置を,B1〜B8と表すものとする。このとき,B1〜B4の位置には,それぞれ画像S2〜画像S5が存在する。参照画像メモリ12には画像S1から画像S5までの現時刻の画像が既に蓄積されているので,画像S6と隣接する画像S2から画像S5までの端の画像情報を,画像S6予測画像を作成する際に使用する。
FIG. 9 is a diagram illustrating an example of pixel positions of a cubic reference frame in the present embodiment. The positions around the image S6 when the cube is developed around the image S6 are represented as B1 to B8. At this time, images S2 to S5 exist at the positions B1 to B4, respectively. Since the image at the current time from the image S1 to the image S5 has already been stored in the
符号化対象のMBが画像S6の左上MBである場合には(ステップ100),B1,B2の位置にある画像S2,画像S3の画素を,予測画像の作成に使用可能な画素と決定する(ステップ101)。符号化対象のMBが画像S6の右上MBである場合には(ステップ102),B1,B3の位置にある画像S2,画像S4の画素と,現フレーム(画像S6)の画素とを,予測画像の作成に使用可能な画素と決定する(ステップ103)。符号化対象のMBが画像S6の上MBである場合には(ステップ104),B1の位置にある画像S2の画素と,現フレーム(画像S6)の画素とを,予測画像の作成に使用可能な画素と決定する(ステップ105)。 When the encoding target MB is the upper left MB of the image S6 (step 100), the pixels of the image S2 and the image S3 at the positions of B1 and B2 are determined as pixels that can be used to create a predicted image ( Step 101). When the encoding target MB is the upper right MB of the image S6 (step 102), the pixels of the images S2 and S4 at the positions of B1 and B3 and the pixels of the current frame (image S6) are predicted images. It is determined that the pixel can be used for creation of (step 103). When the encoding target MB is the upper MB of the image S6 (step 104), the pixel of the image S2 at the position of B1 and the pixel of the current frame (image S6) can be used to create a predicted image. The pixel is determined to be a correct pixel (step 105).
符号化対象のMBが画像S6の左下MBである場合には(ステップ106),B2,B4の位置にある画像S3,画像S5の画素と,現フレーム(画像S6)の画素とを,予測画像の作成に使用可能な画素と決定する(ステップ107)。符号化対象のMBが画像S6の右下MBである場合には(ステップ108),B3,B4の位置にある画像S4,画像S5の画素と,現フレーム(画像S6)の画素とを,予測画像の作成に使用可能な画素と決定する(ステップ109)。符号化対象のMBが画像S6の下MBである場合には(ステップ110),B4の位置にある画像S5の画素と,現フレーム(画像S6)の画素とを,予測画像の作成に使用可能な画素と決定する(ステップ111)。 When the encoding target MB is the lower left MB of the image S6 (step 106), the pixel of the image S3 and the image S5 at the positions of B2 and B4 and the pixel of the current frame (image S6) are predicted images. Are determined to be usable pixels (step 107). When the encoding target MB is the lower right MB of the image S6 (step 108), the pixels of the images S4 and S5 at the positions of B3 and B4 and the pixels of the current frame (image S6) are predicted. It is determined that the pixel can be used to create an image (step 109). When the encoding target MB is the lower MB of the image S6 (step 110), the pixel of the image S5 at the position of B4 and the pixel of the current frame (image S6) can be used to create a predicted image. A pixel is determined (step 111).
符号化対象のMBが画像S6の左MBである場合には(ステップ112),B2の位置にある画像S3の画素と,現フレーム(画像S6)の画素とを,予測画像の作成に使用可能な画素と決定する(ステップ113)。符号化対象のMBが画像S6の右MBである場合には(ステップ114),B3の位置にある画像S4の画素と,現フレーム(画像S6)の画素とを,予測画像の作成に使用可能な画素と決定する(ステップ115)。 When the encoding target MB is the left MB of the image S6 (step 112), the pixel of the image S3 at the position of B2 and the pixel of the current frame (image S6) can be used to create a predicted image. A pixel is determined (step 113). If the MB to be encoded is the right MB of the image S6 (step 114), the pixel of the image S4 at the position of B3 and the pixel of the current frame (image S6) can be used to create a predicted image. The pixel is determined to be a correct pixel (step 115).
符号化対象のMBが以上のいずれにも該当しない場合(符号化対象のMBが画像S6の端のMBでない場合)には,現フレーム(画像S6)の画素を,予測画像の作成に使用可能な画素と決定する(ステップ116)。 When the encoding target MB does not correspond to any of the above (when the encoding target MB is not the end MB of the image S6), the pixel of the current frame (image S6) can be used to create a predicted image. (Step 116).
予測モード探索部13は,各種予測モードによって定義される予測画像を,参照フレームまたは現フレームの画像情報から作成して,入力画像と予測画像との間の差分絶対値和が最も小さい予測モードを,そのマクロブロックの予測モードに決定する。
The prediction
予測モード探索部13と予測画像作成部15では,図4に示す配置の画像情報を使って予測画像を作成する。ただし,図8のフローチャートで決定された画素位置の画像情報だけを使用する。
The prediction
図10は,本実施の形態における画像符号化処理フローチャートである。まず,画像入力部11は,入力画像(例えば図22の画像S6)を取り込み,マクロブロックに分割する(ステップ200)。分割したマクロブロックごとに次のようにして符号化する。
FIG. 10 is a flowchart of an image encoding process in the present embodiment. First, the
予測モード探索部13は,符号化対象のマクロブロックについて,図8に示すフローチャートに従って予測画像に使用可能な画素位置を決定する(ステップ201)。次に,上記のパターン1からパターン15までの予測モードのうち,決定された画素位置を使用するパターンだけを順次適用して予測画像を作成し,原画像と予測画像との絶対値差分和を求め,この値が最も小さいパターンの予測モードを求める(ステップ202)。このとき,参照画像切替部18は,図9に示す展開図で対応する画素を参照画像メモリ12から読み込めるように,参照画像を切り替える。
The prediction
このようにして予測モードを決定した後に,予測画像作成部15は,予測画像を作成する(ステップ203)。このとき,決定された予測モードで予測画像を作成するように,参照画像切替部18は,再度参照画像を切り替える。
After determining the prediction mode in this way, the predicted
差分符号化部16は,原画像と予測画像との差分を符号化し(ステップ204),復号部17は,符号化データを復号して復号画像を作成し(ステップ205),その復号画像を画像S6用の参照画像メモリ12に蓄積する(ステップ206)。また,予測モード符号化部14は,予測モード探索部13で決定された予測モードを符号化する(ステップ207)。
The
以上の処理(ステップ201〜207)を現在の入力画像の全マクロブロックについて実行する(ステップ208)。次のマクロブロックからは,参照画像メモリ12に蓄積した現在の画像の復号画像も利用しながら予測画像を作成して符号化する。このようにして現在の入力画像をすべて符号化する。
The above processing (
図11は,本実施の形態における画像復号装置の構成例を示す図である。画像復号装置は,差分符号化データを復号する差分復号部21と,複数フレームの参照画像を蓄積することが可能な参照画像メモリ22と,予測モードを復号する予測モード復号部23と,予測画像を作成する予測画像作成部24と,差分画像と予測画像とから復号画像を作成する復号画像作成部25と,予測画像作成部24で使用する参照画像を切り替える参照画像切替部26とを備える。
FIG. 11 is a diagram illustrating a configuration example of the image decoding device according to the present embodiment. The image decoding apparatus includes a
参照画像メモリ22には,画像S1から画像S6までの6フレーム分の画像を蓄積できるメモリが備えてあり,各対応した画像の直前のフレームの画像情報を蓄積する。
The
前述の画像符号化装置の場合と同様に,予測画像作成部24では,次に復号を行う画像(例えば図22の画像S6)のマクロブロックについて,図8に示すフローに従って,予測画像を作成する際に使用することができる画素を決定し,予測モード復号部23で復号したパターン1からパターン15までのいずれかの予測モードを適用して予測画像を作成する。
As in the case of the image encoding device described above, the predicted
図12は,本実施の形態における画像復号処理フローチャートである。画像復号装置は,前述した画像符号化装置で符号化された画像(例えば画像S6)の符号化データを,マクロブロックごとに次のように復号する。 FIG. 12 is a flowchart of image decoding processing according to the present embodiment. The image decoding apparatus decodes the encoded data of the image (for example, the image S6) encoded by the above-described image encoding apparatus for each macroblock as follows.
予測モード復号部23は,予測モードを復号し(ステップ300),予測画像作成部24は,予測画像を作成する(ステップ301)。このとき,復号された予測モードに従って予測画像を作成するように,参照画像切替部26が参照画像を切り替える。
The prediction
差分復号部21は,差分符号化データを復号して差分画像情報を求め(ステップ302),復号画像作成部25は,差分画像情報と予測画像とを使用して復号画像を作成する(ステップ303)。その復号画像を出力するとともに,画像S6用の参照画像メモリ22に蓄積する(ステップ304)。
The
以上の処理(ステップ300〜304)を,現在復号する画像の全マクロブロックについて実行する(ステップ305)。ここで,次のマクロブロックからは,参照画像メモリ22に蓄積した現在の画像の復号画像も利用しながら予測画像を作成して復号する。このようにして現在の入力画像をすべて復号する。
The above processing (
〔第2の実施の形態〕
次に,本発明の第2の実施の形態として,カメラが移動する際の画像符号化の手順を示す。図13は,本実施の形態におけるカメラが移動した場合の予測画像作成の例を示す図である。図13(a)に示すように,カメラは,位置A→位置B→位置Cの順に移動して撮像を行うものとする。図13(b)において,位置Aの画像の位置A−1,位置Bの画像の位置B−1は,位置Cの画像の左端に相当する。
[Second Embodiment]
Next, as a second embodiment of the present invention, an image encoding procedure when the camera moves will be described. FIG. 13 is a diagram illustrating an example of creating a predicted image when the camera moves in the present embodiment. As shown in FIG. 13A, the camera moves in the order of position A → position B → position C and performs imaging. In FIG. 13B, the position A-1 of the image at position A and the position B-1 of the image at position B correspond to the left end of the image at position C.
以下,カメラが位置Cのときの画像を符号化する際に,カメラが位置Aまたは位置Bにあるときの画像を使用して予測画像を作成する例を示す。参照画像メモリには,位置Aと位置Bにおける復号画像が既に蓄積されているものとする。 Hereinafter, an example of creating a predicted image using an image when the camera is at position A or B when encoding an image when the camera is at position C will be described. It is assumed that decoded images at positions A and B are already stored in the reference image memory.
本実施の形態では,位置Aと位置C,位置Bと位置Cの間に図13に示す幾何学情報の関係があることを前提にして,参照フレームから予測符号化に利用する画素位置を決定する。このとき,位置Cの画像を縦横16画素マクロブロックに分割し,マクロブロックごとに差分符号化データの符号量が最小となるように,参照画像と予測画像の作成方法とを選択して符号化する。 In the present embodiment, the pixel position used for predictive coding is determined from the reference frame on the assumption that the geometric information shown in FIG. 13 exists between position A and position C, and position B and position C. To do. At this time, the image at position C is divided into 16 pixels vertically and horizontally macroblocks, and the reference image and the prediction image creation method are selected and encoded so that the code amount of differentially encoded data is minimized for each macroblock. To do.
図14は,本実施の形態における画像符号化装置の構成例を示す図である。画像符号化装置は,符号化する画像情報を取り込む画像入力部31と,複数フレームの参照画像を蓄積することが可能な参照画像メモリ32と,予測モードの探索を行う予測モード探索部33と,予測モードを符号化する予測モード符号化部34と,予測画像を作成する予測画像作成部35と,入力画像情報と予測画像との差分を符号化する差分符号化部36と,差分符号化部36で作成された差分符号化データを復号して復号画像を作成する復号部37と,予測画像作成部35で使用する参照画像を切り替える参照画像切替部38と,参照画像を指定する参照画像指定情報を符号化する参照画像指定情報符号化部39とを備える。
FIG. 14 is a diagram illustrating a configuration example of an image encoding device according to the present embodiment. The image encoding device includes an
参照画像メモリ32には,位置Aと位置Bの復号画像が既に蓄積されているものとする。さらに,位置Cの復号画像を蓄積できるメモリが備えてあるものとする。画像入力部31は,入力画像をマクロブロックに分割するものとする。
It is assumed that the decoded images at position A and position B have already been stored in the
予測画像作成部35は,位置Cの画像の左端のマクロブロックについて,参照画像メモリ32の位置Aまたは位置Bの画像と,位置Cの復号画像とから予測画像を作成する。それ以外の位置のマクロブロックについては,参照画像メモリ32の位置Cの復号画像から予測画像を作成する。
The predicted
予測モード探索部33は,各種予測モードによって定義される予測画像を,参照フレームまたは現フレームの画像情報から作成し,入力画像と予測画像との間の差分絶対値和が最も小さい参照画像と予測モードを,そのマクロブロックの参照画像と予測モードに決定する。
The prediction
図15は,本実施の形態における画像符号化処理フローチャートである。まず,画像入力部31は,位置Cの入力画像を取り込み,マクロブロックに分割する(ステップ400)。分割したマクロブロックごとに次のように符号化する。
FIG. 15 is a flowchart of an image encoding process in the present embodiment. First, the
予測モード探索部33は,参照画像を位置Aの画像に設定し,パターン1からパターン15までの予測モードを順次適用して予測画像を作成し,現在の画像と予測画像との絶対値差分和を求め,この値が最も小さいパターンの予測モードを求める(ステップ401)。次に,参照画像を位置Bの画像に設定し,パターン1からパターン15までの予測モードを順次適用して予測画像を作成し,現在の画像と予測画像との絶対値差分和を求め,この値が最も小さいパターンを求める(ステップ402)。
The prediction
ステップ401で求められた位置Aの画像を参照画像としたときの最小の絶対値差分和と,ステップ402で求められた位置Bの画像を参照画像としたときの最小の絶対値差分和を比較する(ステップ403)。位置Aの画像を参照画像としたときの最小の絶対値差分和の方が小さければ,位置Aの画像をそのマクロブロックの参照画像に決定し(ステップ404),ステップ401で求められた予測モードをそのマクロブロックの予測モードに決定する(ステップ405)。位置Bの画像を参照画像としたときの最小の絶対値差分和の方が小さければ,位置Bの画像をそのマクロブロックの参照画像に決定し(ステップ406),ステップ402で求められた予測モードをそのマクロブロックの予測モードに決定する(ステップ407)。
Comparing the minimum absolute value difference sum when the image of the position A obtained in
ここで,予測画像を作成する際には,パターン1からパターン15までの予測モードのうち,位置Aの画像または位置Bの画像と,符号化および復号済みの現在の画像の画素位置を使用するパターンのみを適用する。
Here, when creating a predicted image, among the prediction modes from
このようにして参照画像と予測モードを決定した後に,予測画像作成部35は,決定された予測モードで予測画像を作成する(ステップ408)。このとき,決定された参照画像で予測画像を作成するように,参照画像切替部38が参照画像を切り替える。
After determining the reference image and the prediction mode in this way, the predicted
差分符号化部36は,現在の画像と予測画像との差分を符号化し(ステップ409),復号部37は,符号化データを復号して復号画像を作成し(ステップ410),その復号画像を位置C用の参照画像メモリ32に蓄積する(ステップ411)。また,予測モード符号化部34は,予測モードを符号化し(ステップ412),参照画像指定情報符号化部39は,参照画像指定情報を符号化する(ステップ413)。
The
以上の処理(ステップ401〜413)を現画像の全マクロブロックについて実行する(ステップ414)。ここで,次のマクロブロックからは,参照画像メモリ32に蓄積した位置Cの復号画像も利用しながら予測画像を作成し符号化する。このようにして,入力した位置Cの画像をすべて符号化する。
The above processing (
図16は,本実施の形態における画像復号装置の構成例を示す図である。画像復号装置は,差分符号化データを復号する差分復号部41と,複数フレームの参照画像を蓄積することが可能な参照画像メモリ42と,予測モードを復号する予測モード復号部43と,予測画像を作成する予測画像作成部44と,差分画像と予測画像とから復号画像を作成する復号画像作成部45と,予測画像作成部44で使用する参照画像を切り替える参照画像切替部46と,参照画像を指定する参照画像指定情報を復号する参照画像指定情報復号部47とを備える。
FIG. 16 is a diagram illustrating a configuration example of an image decoding device according to the present embodiment. The image decoding apparatus includes a
参照画像メモリ42には,位置Aと位置Bの復号画像が既に蓄積されており,これから位置Cの画像の符号化データを復号する場合について説明する。前述の画像符号化装置の場合と同様に,予測画像作成部44は,位置Cの画像の左端のマクロブロックについて,参照画像メモリ42の位置Aまたは位置Bの画像と,位置Cの復号画像とから予測画像を作成する。それ以外の位置のマクロブロックについては,参照画像メモリ42の位置Cの復号画像から予測画像を作成する。このような前提で,図14の画像符号化装置で符号化された符号化データを,マクロブロックごとに次のように復号する。
A case will be described in which the decoded images of the position A and the position B are already stored in the
図17は,本実施の形態における画像復号処理フローチャートである。まず,予測モード復号部43は,予測モードを復号し(ステップ500),参照画像指定情報復号部47は,参照画像指定情報を復号する(ステップ501)。
FIG. 17 is a flowchart of image decoding processing according to the present embodiment. First, the prediction
予測画像作成部44は,復号された予測モードに従って予測画像を作成する(ステップ502)。このとき,復号された参照画像指定情報で指定された参照画像で予測画像を作成するように,参照画像切替部46が参照画像を切り替える。
The predicted
差分復号部41は,差分符号化データを復号して差分画像情報を求め(ステップ503),復号画像作成部45は,差分画像情報と予測画像とを使用して復号画像を作成する(ステップ504)。作成した復号画像を出力するとともに,その復号画像を位置C用の参照画像メモリ42に蓄積する(ステップ505)。
The
以上の処理(ステップ500〜505)を,現在の画像の全マクロブロックについて実行する(ステップ506)。次のマクロブロックからは,参照画像メモリ42に蓄積した位置Cの復号画像も利用しながら予測画像を作成して復号する。
The above processing (
以上の第1および第2の実施の形態における画像符号化装置および画像復号装置が行う処理は,ハードウェアやファームウェアを用いて実現することができるだけでなく,コンピュータとソフトウェアプログラムとによっても実現することができ,そのプログラムをコンピュータ読み取り可能な記録媒体に記録して提供することも,ネットワークを通して提供することも可能である。 The processing performed by the image encoding device and the image decoding device in the first and second embodiments described above can be realized not only using hardware and firmware, but also using a computer and a software program. The program can be provided by being recorded on a computer-readable recording medium or can be provided through a network.
以上説明した第1および第2の実施の形態では,参照フレームと現フレームとの間の幾何学情報は予め設定されており,符号化データには含めなかったが,符号化データに含めるようにしてもよい。 In the first and second embodiments described above, the geometric information between the reference frame and the current frame is preset and is not included in the encoded data, but is included in the encoded data. May be.
また,本実施の形態では,画像符号化装置における予測モード探索の際に,絶対値差分和が最も小さい位置に設定したが,例えば実際に符号化した符号化データの符号量が最小となる位置に設定してもよい。 Further, in the present embodiment, the position where the sum of absolute value differences is set to the smallest in the prediction mode search in the image coding apparatus, for example, the position where the code amount of the actually encoded data is minimized. May be set.
また,本実施の形態では,画像符号化装置における復号部17,37は,差分画像情報と予測画像とから復号画像を作成し,それを参照画像メモリ12,32に蓄積しているが,原画像を参照画像メモリ12,32に蓄積するようにしてもよい。
In the present embodiment, the
11,31 画像入力部
12,32 参照画像メモリ
13,33 予測モード探索部
14,34 予測モード符号化部
15,35 予測画像作成部
16,36 差分符号化部
17,37 復号部
18,38 参照画像切替部
39 参照画像指定情報符号化部
21,41 差分復号部
22,42 参照画像メモリ
23,43 予測モード復号部
24,44 予測画像作成部
25,45 復号画像作成部
26,46 参照画像切替部
47 参照画像指定情報復号部
11, 31
Claims (14)
複数フレームの参照画像を蓄積する参照画像メモリと,
予め設定された参照フレームと現フレーム間の幾何学情報を用いて,参照フレームの画像情報と現フレームの画像情報とから現フレームの予測画像を作成する予測画像作成部と,
前記現フレームを分割した領域内の画像情報と予測画像の差分を符号化する差分符号化部とを備える
ことを特徴とする画像符号化装置。 An image encoding apparatus that stores reference images and encodes image information in an area obtained by dividing a current frame using inter-frame predictive encoding,
A reference image memory for storing multiple frames of reference images;
A prediction image creation unit that creates a prediction image of the current frame from the image information of the reference frame and the image information of the current frame using geometric information between the reference frame set in advance and the current frame;
An image encoding apparatus comprising: a difference encoding unit that encodes a difference between image information in a region obtained by dividing the current frame and a predicted image.
符号化する現フレームの画像情報を取り込む画像入力部と,
複数フレームの参照画像を蓄積する参照画像メモリと,
参照フレームと現フレーム間の空間的な位置関係を示す幾何学情報を用いて,参照フレームの画像情報と現フレームの画像情報とから現フレームの予測画像を作成するにあたって,予測画像を作成する際に使用する画像情報を定める複数のパターンに対応する複数の予測モードの中から,前記幾何学情報に従って予測画像の作成に用いる予測モードを探索し決定する予測モード探索部と,
前記予測モードを符号化する予測モード符号化部と,
前記予測モードに従って予測画像を作成する予測画像作成部と,
入力画像情報と予測画像との差分を符号化する差分符号化部と,
前記差分符号化部で作成された差分符号化データを復号して復号画像を作成し前記参照メモリに格納する復号部とを備える
ことを特徴とする画像符号化装置。 An image encoding apparatus that stores reference images and encodes image information in an area obtained by dividing a current frame using inter-frame predictive encoding,
An image input unit for capturing image information of the current frame to be encoded;
A reference image memory for storing multiple frames of reference images;
When creating a predicted image when creating a predicted image of the current frame from the image information of the reference frame and the image information of the current frame using geometric information indicating the spatial positional relationship between the reference frame and the current frame A prediction mode search unit for searching for and determining a prediction mode used to create a prediction image according to the geometric information from a plurality of prediction modes corresponding to a plurality of patterns defining image information used for;
A prediction mode encoding unit for encoding the prediction mode;
A predicted image creating unit for creating a predicted image according to the prediction mode;
A differential encoding unit for encoding the difference between the input image information and the predicted image;
An image encoding apparatus comprising: a decoding unit that decodes differentially encoded data generated by the differential encoding unit to generate a decoded image and stores the decoded image in the reference memory.
前記参照画像メモリに蓄積された参照画像のうち前記予測画像作成部が参照する参照画像の指定情報を符号化する参照画像指定情報符号化部を備える
ことを特徴とする画像符号化装置。 The image encoding device according to claim 2,
An image coding apparatus comprising: a reference image designation information encoding unit that encodes reference image designation information that is referred to by the prediction image generation unit among reference images stored in the reference image memory.
前記幾何学情報を符号化する幾何学情報符号化部を備える
ことを特徴とする画像符号化装置。 In the image coding device according to claim 2 or 3,
An image encoding apparatus comprising: a geometric information encoding unit that encodes the geometric information.
複数フレームの参照画像を蓄積する参照画像メモリと,
差分画像情報を復号する差分復号部と,
予め設定された参照フレームと現フレーム間の幾何学情報を用いて,参照フレームの画像情報と現フレームの画像情報とから現フレームの予測画像を作成する予測画像作成部と,
予測画像と差分画像情報とから復号画像を作成する復号画像作成部とを備える
ことを特徴とする画像復号装置。 An image decoding apparatus that stores reference images and decodes image information in an area obtained by dividing a current frame using inter-frame prediction encoding,
A reference image memory for storing multiple frames of reference images;
A differential decoding unit for decoding the differential image information;
A prediction image creation unit that creates a prediction image of the current frame from the image information of the reference frame and the image information of the current frame using geometric information between the reference frame set in advance and the current frame;
An image decoding apparatus comprising: a decoded image generation unit that generates a decoded image from a predicted image and difference image information.
復号する画像の差分画像情報の符号化データと,参照フレームと現フレーム間の空間的な位置関係を示す幾何学情報を用いて,参照フレームの画像情報と現フレームの画像情報とから現フレームの予測画像を作成するにあたって,予測画像を作成する際に使用する画像情報を定める複数のパターンに対応する複数の予測モードの中から,画像符号化装置が決定し符号化した予測モードの符号化データを入力する入力部と,
複数フレームの参照画像を蓄積する参照画像メモリと,
前記入力した予測モードの符号化データを復号する予測モード復号部と,
差分画像情報を復号する差分復号部と,
前記復号した予測モードに従って前記参照画像メモリに蓄積された参照画像の画像情報を用いて現フレームの予測画像を作成する予測画像作成部と,
予測画像と差分画像情報とから復号画像を作成し前記参照画像メモリに格納する復号画像作成部とを備える
ことを特徴とする画像復号装置。 An image decoding apparatus that stores reference images and decodes image information in an area obtained by dividing a current frame using inter-frame prediction encoding,
Using the encoded data of the difference image information of the image to be decoded and the geometric information indicating the spatial positional relationship between the reference frame and the current frame, the current frame image information is obtained from the reference frame image information and the current frame image information. When creating a prediction image, the encoded data of the prediction mode determined and encoded by the image encoding device from among a plurality of prediction modes corresponding to a plurality of patterns that define image information to be used when creating the prediction image An input unit for inputting
A reference image memory for storing multiple frames of reference images;
A prediction mode decoding unit that decodes the encoded data of the input prediction mode;
A differential decoding unit for decoding the differential image information;
A predicted image creating unit that creates a predicted image of the current frame using image information of a reference image stored in the reference image memory according to the decoded prediction mode;
An image decoding apparatus comprising: a decoded image generating unit that generates a decoded image from a predicted image and difference image information and stores the decoded image in the reference image memory.
前記参照画像メモリに蓄積された参照画像のうち前記予測画像作成部が参照する参照画像の指定情報の符号化データを入力する入力部と,
入力した参照画像の指定情報の符号化データを復号する参照画像指定情報復号部とを備え,
前記予測画像作成部は,復号された参照画像の指定情報が示す参照画像を,前記参照画像メモリから読み出して予測画像の作成に使用する
ことを特徴とする画像復号装置。 The image decoding device according to claim 6,
An input unit that inputs encoded data of designation information of a reference image that is referred to by the prediction image generation unit among the reference images stored in the reference image memory;
A reference image designation information decoding unit for decoding the encoded data of the input reference image designation information,
The prediction image creating unit reads a reference image indicated by the designation information of the decoded reference image from the reference image memory and uses the reference image to create a predicted image.
前記幾何学情報を復号する幾何学情報復号部を備える
ことを特徴とする画像復号装置。 The image decoding device according to claim 6 or 7,
An image decoding apparatus comprising: a geometric information decoding unit that decodes the geometric information.
予め設定された参照フレームと現フレーム間の幾何学情報を用いて,参照フレームの画像情報と現フレームの画像情報から現フレームの予測画像を作成する予測画像作成ステップと,
前記現フレームを分割した領域内の画像情報と予測画像の差分を符号化する差分符号化ステップとを実行する
ことを特徴とする画像符号化方法。 An image encoding method for storing reference images and encoding image information in an area obtained by dividing a current frame using inter-frame predictive encoding,
A predicted image creating step for creating a predicted image of the current frame from the image information of the reference frame and the image information of the current frame using geometric information between the reference frame set in advance and the current frame;
An image encoding method, comprising: executing a difference encoding step of encoding a difference between image information in a region obtained by dividing the current frame and a predicted image.
予め設定された参照フレームと現フレーム間の幾何学情報を用いて,参照フレームの画像情報と現フレームの画像情報から現フレームの予測画像を作成する予測画像作成ステップと,
差分画像情報を復号する差分復号ステップと,
予測画像と差分画像情報から復号画像を作成する復号画像作成ステップとを実行する
ことを特徴とする画像復号方法。 An image decoding method for storing reference images and decoding image information in an area obtained by dividing a current frame using inter-frame predictive coding,
A predicted image creating step for creating a predicted image of the current frame from the image information of the reference frame and the image information of the current frame using geometric information between the reference frame set in advance and the current frame;
A differential decoding step for decoding the differential image information;
An image decoding method comprising: executing a decoded image creating step of creating a decoded image from a predicted image and difference image information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004067381A JP2005260464A (en) | 2004-03-10 | 2004-03-10 | Image encoding device, image decoding device, image encoding method, image decoding method, image encoding program, image decoding program, image encoding program recording medium, and image decoding program recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004067381A JP2005260464A (en) | 2004-03-10 | 2004-03-10 | Image encoding device, image decoding device, image encoding method, image decoding method, image encoding program, image decoding program, image encoding program recording medium, and image decoding program recording medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005260464A true JP2005260464A (en) | 2005-09-22 |
Family
ID=35085786
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004067381A Pending JP2005260464A (en) | 2004-03-10 | 2004-03-10 | Image encoding device, image decoding device, image encoding method, image decoding method, image encoding program, image decoding program, image encoding program recording medium, and image decoding program recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005260464A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008012918A1 (en) * | 2006-07-28 | 2008-01-31 | Kabushiki Kaisha Toshiba | Image encoding and decoding method and apparatus |
RU2427976C2 (en) * | 2006-07-28 | 2011-08-27 | Кабусики Кайся Тосиба | Method and device for coding and decoding of image |
JP2012120238A (en) * | 2012-02-09 | 2012-06-21 | Hitachi Ltd | Image decoding method |
US8311089B2 (en) | 2006-06-14 | 2012-11-13 | Kddi Corporation | Multi-view video compression coding method and apparatus |
JP2013255290A (en) * | 2013-09-24 | 2013-12-19 | Hitachi Ltd | Image decoding method |
JP2018520567A (en) * | 2015-10-13 | 2018-07-26 | メディアテック インコーポレイテッド | Partial Decoding for Arbitrary View Angle and Line Buffer Reduction of Virtual Reality Video |
CN114245122A (en) * | 2016-10-04 | 2022-03-25 | 有限公司B1影像技术研究所 | Image data encoding/decoding method, medium and method of transmitting bit stream |
-
2004
- 2004-03-10 JP JP2004067381A patent/JP2005260464A/en active Pending
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8311089B2 (en) | 2006-06-14 | 2012-11-13 | Kddi Corporation | Multi-view video compression coding method and apparatus |
WO2008012918A1 (en) * | 2006-07-28 | 2008-01-31 | Kabushiki Kaisha Toshiba | Image encoding and decoding method and apparatus |
KR101011303B1 (en) | 2006-07-28 | 2011-01-28 | 가부시끼가이샤 도시바 | Image encoding and decoding method and apparatus |
CN101502124B (en) * | 2006-07-28 | 2011-02-23 | 株式会社东芝 | Image encoding and decoding method and apparatus |
AU2006346583B2 (en) * | 2006-07-28 | 2011-04-28 | Kabushiki Kaisha Toshiba | Image encoding and decoding method and apparatus |
RU2427976C2 (en) * | 2006-07-28 | 2011-08-27 | Кабусики Кайся Тосиба | Method and device for coding and decoding of image |
JP2012120238A (en) * | 2012-02-09 | 2012-06-21 | Hitachi Ltd | Image decoding method |
JP2013255290A (en) * | 2013-09-24 | 2013-12-19 | Hitachi Ltd | Image decoding method |
JP2018520567A (en) * | 2015-10-13 | 2018-07-26 | メディアテック インコーポレイテッド | Partial Decoding for Arbitrary View Angle and Line Buffer Reduction of Virtual Reality Video |
US11863732B1 (en) | 2016-10-04 | 2024-01-02 | B1 Institute Of Image Technology, Inc. | Image data encoding/decoding method and apparatus |
US11991339B2 (en) | 2016-10-04 | 2024-05-21 | B1 Institute Of Image Technology, Inc. | Image data encoding/decoding method and apparatus |
US11553168B2 (en) | 2016-10-04 | 2023-01-10 | B1 Institute Of Image Technology, Inc. | Image data encoding/decoding method and apparatus |
US11677926B1 (en) | 2016-10-04 | 2023-06-13 | B1 Institute Of Image Technology, Inc. | Image data encoding/decoding method and apparatus |
US11778158B2 (en) | 2016-10-04 | 2023-10-03 | B1 Institute Of Image Technology, Inc. | Image data encoding/decoding method and apparatus |
CN114245122A (en) * | 2016-10-04 | 2022-03-25 | 有限公司B1影像技术研究所 | Image data encoding/decoding method, medium and method of transmitting bit stream |
US11936841B2 (en) | 2016-10-04 | 2024-03-19 | B1 Institute Of Image Technology, Inc. | Image data encoding/decoding method and apparatus |
US11949846B1 (en) | 2016-10-04 | 2024-04-02 | B1 Institute Of Image Technology, Inc. | Image data encoding/decoding method and apparatus |
US11962744B2 (en) | 2016-10-04 | 2024-04-16 | B1 Institute Of Image Technology, Inc. | Image data encoding/decoding method and apparatus |
US11463672B2 (en) | 2016-10-04 | 2022-10-04 | B1 Institute Of Image Technology, Inc. | Image data encoding/decoding method and apparatus |
US12028503B2 (en) | 2016-10-04 | 2024-07-02 | B1 Institute Of Image Technology, Inc. | Image data encoding/decoding method and apparatus |
US12108017B2 (en) | 2016-10-04 | 2024-10-01 | B1 Institute Of Image Technology, Inc. | Image data encoding/decoding method and apparatus |
US12132880B2 (en) | 2016-10-04 | 2024-10-29 | B1 Institute Of Image Technology, Inc. | Image data encoding/decoding method and apparatus |
US12219114B2 (en) | 2016-10-04 | 2025-02-04 | B1 Institute Of Image Technology, Inc. | Image data encoding/decoding method and apparatus |
US12225179B2 (en) | 2016-10-04 | 2025-02-11 | B1 Institute Of Image Technology, Inc. | Image data encoding/decoding method and apparatus |
US12238261B2 (en) | 2016-10-04 | 2025-02-25 | B1 Institute Of Image Technology, Inc. | Image data encoding/decoding method and apparatus |
US12244783B2 (en) | 2016-10-04 | 2025-03-04 | B1 Institute Of Image Technology, Inc. | Image data encoding/decoding method and apparatus |
US12256056B2 (en) | 2016-10-04 | 2025-03-18 | B1 Institute Of Image Technology, Inc. | Image data encoding/decoding method and apparatus |
US12278939B2 (en) | 2016-10-04 | 2025-04-15 | B1 Institute Of Image Technology, Inc. | Image data encoding/decoding method and apparatus |
US12323568B2 (en) | 2016-10-04 | 2025-06-03 | B1 Institute Of Image Technology, Inc. | Image data encoding/decoding method and apparatus |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11856221B2 (en) | Method and device for image encoding and decoding, and recording medium having bit stream stored therein | |
CN109691110B (en) | Method and apparatus for encoding/decoding synchronous multi-view video using spatial layout information | |
RU2307478C2 (en) | Method for compensating global movement for video images | |
US20250097467A1 (en) | Method and apparatus of encoding/decoding image data based on tree structure-based block division | |
JP5563148B2 (en) | Video encoding method and video decoding method | |
US12250405B2 (en) | Method and apparatus of encoding/decoding image data based on tree structure-based block division | |
KR20180028299A (en) | A method for seletively decoding a syncronized multi view video by using spatial layout information | |
JP2005260464A (en) | Image encoding device, image decoding device, image encoding method, image decoding method, image encoding program, image decoding program, image encoding program recording medium, and image decoding program recording medium | |
JP6503014B2 (en) | Moving picture coding method and moving picture decoding method | |
JP2005159824A (en) | Image encoding method, image decoding method, image encoding device, image decoding device, image encoding program, image decoding program, and recording medium thereof | |
KR102804225B1 (en) | A method for encoding/decoding a video based on moving information of 3-dimensional sphere | |
JP6510084B2 (en) | Moving picture decoding method and electronic apparatus | |
KR20190022300A (en) | A method for encoding/decoding a virtual reality video | |
RU2775829C1 (en) | Method and apparatus for encoding/decoding an image and record medium storing a bitstream | |
KR100728032B1 (en) | Warping-based intra prediction method | |
KR102804224B1 (en) | A method for encoding/decoding a video based on moving information of 3-dimensional sphere | |
JP2016106494A (en) | Moving image encoding method and moving image decoding method | |
JP5893178B2 (en) | Video encoding method and video decoding method | |
JP5680778B2 (en) | Video encoding method and video decoding method | |
JP2025505450A (en) | Depth difference instead of motion vectors | |
JP2014112749A (en) | Image coding device and image decoding device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060410 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080408 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080609 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20080609 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080902 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081027 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090714 |