[go: up one dir, main page]

JP5915168B2 - Encoding device, decoding device, moving image processing system, encoding method, decoding method, encoding program, and decoding program - Google Patents

Encoding device, decoding device, moving image processing system, encoding method, decoding method, encoding program, and decoding program Download PDF

Info

Publication number
JP5915168B2
JP5915168B2 JP2011286978A JP2011286978A JP5915168B2 JP 5915168 B2 JP5915168 B2 JP 5915168B2 JP 2011286978 A JP2011286978 A JP 2011286978A JP 2011286978 A JP2011286978 A JP 2011286978A JP 5915168 B2 JP5915168 B2 JP 5915168B2
Authority
JP
Japan
Prior art keywords
series
image
images
region
encoded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011286978A
Other languages
Japanese (ja)
Other versions
JP2013135464A (en
Inventor
昇 米岡
昇 米岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2011286978A priority Critical patent/JP5915168B2/en
Publication of JP2013135464A publication Critical patent/JP2013135464A/en
Application granted granted Critical
Publication of JP5915168B2 publication Critical patent/JP5915168B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、符号化装置、復号装置、動画像処理システム、符号化方法、復号方法、符号化プログラム、および復号プログラムに関する。   The present invention relates to an encoding device, a decoding device, a moving image processing system, an encoding method, a decoding method, an encoding program, and a decoding program.

近年、動画像を表示する装置が、高解像度、高ビット深度表示、立体視動画像といった高機能化していくのにあわせて、動画像の符号化技術も前述の機能に対応したものが開示されてきている。   In recent years, as video display devices have become more sophisticated, such as high resolution, high bit depth display, and stereoscopic video, video encoding technology corresponding to the aforementioned functions has been disclosed. It is coming.

たとえば、複数のビット深度に対応するスケーラビリティに関して、異なるビット深度を有する2つ以上のバージョンに、異なるカラー符号化を使用して、ビット深度のスケーラビリティを有する技術が開示されている。また、スケーラブル動画像符号化による立体視動画像符号化において、2つの視点画像のうち特定の視点画像を基本レイヤとして符号化し、他の視点画像を拡張レイヤとして符号化し、拡張レイヤの符号化については、基本レイヤから予測する技術が開示されている。また、ビデオデータを符号化する方法において、符号化されたエンハンスメントレイヤの送信順序を並べ替え、エンハンスメントレイヤのフレームをベースレイヤのフレームに対して遅延させる技術が開示されている(たとえば、下記特許文献1〜3を参照。)。   For example, for scalability corresponding to multiple bit depths, techniques with bit depth scalability are disclosed using different color encodings for two or more versions having different bit depths. In addition, in stereoscopic video encoding by scalable video encoding, a specific viewpoint image is encoded as a base layer among two viewpoint images, another viewpoint image is encoded as an enhancement layer, and encoding of an enhancement layer is performed. Discloses a technique for predicting from a base layer. In addition, in a method of encoding video data, a technique for rearranging the transmission order of the encoded enhancement layers and delaying the frames of the enhancement layer with respect to the frames of the base layer is disclosed (for example, the following patent document) 1-3.)

特表2010−532936号公報Special table 2010-532936 gazette 特表2009−513074号公報Special table 2009-513074 gazette 特表2003−527004号公報Special table 2003-527004 gazette

しかしながら、上述した従来技術を用いて、高解像度にて符号化された動画像から、基本レイヤとして符号化する領域と、拡張レイヤとして符号化する領域と、のように画像を抽出して符号化を行う場合、拡張レイヤのフレームの符号化効率が低下する。たとえば、基本レイヤに映っている物体が拡張レイヤに移動したとする。このとき、拡張レイヤのフレームから、過去の基本レイヤのフレームへの参照が行えない場合、拡張レイヤのフレームが物体に関する符号量を有することになり、符号化効率が低下する。   However, using the above-described conventional technology, an image is extracted and encoded as a region to be encoded as a base layer and a region to be encoded as an enhancement layer from a moving image encoded at a high resolution. When performing the above, the encoding efficiency of the enhancement layer frame decreases. For example, it is assumed that an object shown in the basic layer has moved to the enhancement layer. At this time, if the reference to the past base layer frame cannot be made from the enhancement layer frame, the enhancement layer frame has a code amount related to the object, and the coding efficiency is lowered.

本発明は、上述した従来技術による問題点を解消するため、符号化効率を向上化できる符号化装置、復号装置、動画像処理システム、符号化方法、復号方法、符号化プログラム、および復号プログラムを提供することを目的とする。   The present invention provides an encoding device, a decoding device, a moving image processing system, an encoding method, a decoding method, an encoding program, and a decoding program that can improve the encoding efficiency in order to eliminate the above-described problems caused by the prior art. The purpose is to provide.

上述した課題を解決し、目的を達成するため、本発明の一側面によれば、一連の画像を記憶する記憶部を参照して、一連の画像のうちいずれかの画像から、第1の領域内の画像と第1の領域に隣接する第2の領域内の画像とを抽出し、第1の領域内の画像を第1の領域に対する符号化フレームに符号化し、いずれかの画像を符号化する場合、いずれかの画像の前の画像の第1の領域に対する符号化フレームのダミーフレームを、前の画像のうち第1の領域内の画像に基づいて、自符号化フレームで再生可能な特定の符号化フレームの出現間隔に含まれるフレーム数以下分生成し、生成数分生成されたダミーフレームを、前の画像の第1の領域に対する符号化フレームの次の符号化フレームに設定し、いずれかの画像の第1の領域に対する符号化フレームに先行する先行符号化フレーム群のうちいずれかの画像の第1の領域に対する符号化フレームからダミーフレームの生成数分先行する先行符号化フレームによる画像と、いずれかの画像の第2の領域内の画像と、に基づいて、いずれかの画像の第2の領域内の画像をいずれかの画像の第2の領域に対する符号化フレームに符号化し、前記第1および第2の領域に対する各符号化フレームと生成数分生成されたダミーフレームとダミーフレームの生成数および設定位置を示す情報とを出力する符号化装置、符号化方法、および符号化プログラムが提案される。   In order to solve the above-described problems and achieve the object, according to one aspect of the present invention, a first region is obtained from any one of a series of images with reference to a storage unit that stores the series of images. The image in the second area adjacent to the first area is extracted, the image in the first area is encoded into an encoding frame for the first area, and one of the images is encoded In this case, the dummy frame of the encoded frame for the first area of the previous image of any image is specified based on the image in the first area of the previous image and can be reproduced with the self-encoded frame. The number of frames generated is equal to or less than the number of frames included in the appearance interval of the encoded frame, and the dummy frames generated for the generated number are set as the next encoded frame of the encoded frame for the first region of the previous image. Code for the first region of the image The image of the preceding encoded frame preceding the number of generations of the dummy frame from the encoded frame for the first region of any image in the preceding encoded frame group preceding the frame, and the second region of any image And encoding the image in the second area of any image into an encoded frame for the second area of any image based on the image in each of the images and each code for the first and second areas An encoding device, an encoding method, and an encoding program that output the number of generated frames, the number of generated dummy frames, and information indicating the number of generated dummy frames and the set position are proposed.

また、本発明の一側面によれば、一連の画像のうち第1の領域内の一連の部分画像に対する一連の符号化フレームと、一連の画像のうち第1の領域に隣接する第2の領域内の一連の部分画像に対する一連の符号化フレームと、第1または第2の領域内の一連の部分画像に対する一連の符号化フレームの少なくともいずれか一方に付与されたいずれか一方に対応する識別情報と、第1または第2の領域内の一連の部分画像に対する一連の符号化フレームのうち出力対象でない符号化フレームの数および位置を示す情報と、を受け付け、第1および第2の領域内の一連の部分画像に対する一連の符号化フレームから、識別情報に基づいて、第1の領域内の一連の部分画像に対する一連の符号化フレームを選択し、選択された一連の符号化フレームを一連の部分画像に復号し、復号された一連の部分画像のうち、出力対象でない符号化フレームの数および位置を示す情報に基づいて、出力対象でない符号化フレームに対応する部分画像以外の他の部分画像を出力する復号装置、復号方法、および復号プログラムが提案される。   According to one aspect of the present invention, a series of encoded frames for a series of partial images in a first area of a series of images, and a second area adjacent to the first area of the series of images. Identification information corresponding to at least one of a series of encoded frames for a series of partial images and a series of encoded frames for a series of partial images in the first or second region And information indicating the number and position of encoded frames that are not to be output among a series of encoded frames for a series of partial images in the first or second area, and in the first and second areas A series of encoded frames for the series of partial images in the first region is selected from the series of encoded frames for the series of partial images based on the identification information, and the selected series of encoded frames is selected. Decoding into a series of partial images, based on the information indicating the number and position of the encoded frames that are not the output target of the decoded partial images, other than the partial images corresponding to the encoded frames that are not the output target A decoding device, a decoding method, and a decoding program for outputting a partial image are proposed.

また、本発明の一側面によれば、一連の画像のうち第1の領域内の一連の部分画像に対する一連の符号化フレームと、一連の画像のうち第1の領域に隣接する第2の領域内の一連の部分画像に対する一連の符号化フレームと、第1または第2の領域内の一連の部分画像に対する一連の符号化フレームの少なくともいずれか一方に付与されたいずれか一方に対応する識別情報と、を受け付け、第1の領域と第2の領域とを結合した領域から表示領域を指定し、第1および第2の領域内の一連の部分画像に対する一連の符号化フレームから、識別情報に基づいて、第1の領域内の一連の部分画像に対する一連の符号化フレームを選択し、選択された第1の領域内の一連の部分画像に対する一連の符号化フレームを第1の領域内の一連の部分画像に復号するとともに、指定部によって表示領域が指定された場合、第2の領域内の一連の部分画像に対する一連の符号化フレームを第2の領域内の一連の部分画像に復号し、第1の領域内の一連の部分画像から表示領域内の第1の画像列を抽出するとともに、第2の領域内の一連の部分画像から表示領域内の第2の画像列を抽出し、抽出された第1の画像列の各画像と、第2の画像列の各画像とを、一連の画像内の同一画像どうしで結合し、結合により得られた表示領域の画像列を出力する復号装置、復号方法、および復号プログラムが提案される。   According to one aspect of the present invention, a series of encoded frames for a series of partial images in a first area of a series of images, and a second area adjacent to the first area of the series of images. Identification information corresponding to at least one of a series of encoded frames for a series of partial images and a series of encoded frames for a series of partial images in the first or second region The display area is designated from the area obtained by combining the first area and the second area, and the identification information is obtained from a series of encoded frames for a series of partial images in the first and second areas. Based on this, a series of encoded frames for a series of partial images in the first region are selected, and a series of encoded frames for the series of partial images in the selected first region are selected. To the partial image And when a display area is designated by the designation unit, a series of encoded frames for a series of partial images in the second area are decoded into a series of partial images in the second area, and the first area The first image sequence in the display area is extracted from the series of partial images in the second area, and the second image sequence in the display area is extracted from the series of partial images in the second area. A decoding apparatus, a decoding method, and an image sequence of a display area obtained by combining the images in the image sequence and the images in the second image sequence with the same image in a series of images, And a decoding program is proposed.

また、本発明の一側面によれば、一連の画像を符号化する符号化装置と符号化された一連の画像を復号する復号装置とを有する動画像処理システムであって、符号化装置は、一連の画像のいずれかの画像から、第1の領域内の画像と第1の領域に隣接する第2の領域内の画像とを抽出し、第1の領域内の画像を第1の領域に対する符号化フレームに符号化し、第1の領域に対する符号化フレームの画像と第2の領域内の画像とに基づいて、第2の領域内の画像を第2の領域に対する符号化フレームに符号化し、第1または第2の領域の少なくともいずれか一方を示す識別情報を対応する符号化フレームに付与して、第1および第2の領域に対する各符号化フレームを、復号装置に出力し、復号装置は、識別情報が付与された第1および第2の領域に対する各符号化フレームを受け付け、第1および第2の領域に対する各符号化フレームから、識別情報に基づいて、第1の領域に対する符号化フレームを選択し、選択された第1の領域に対する符号化フレームを復号画像に復号し、復号された復号画像を出力する動画像処理システムが提案される。   According to another aspect of the present invention, there is provided a moving image processing system including an encoding device that encodes a series of images and a decoding device that decodes the encoded series of images. An image in the first area and an image in the second area adjacent to the first area are extracted from any one of the series of images, and the image in the first area is extracted from the first area. Encoding into an encoded frame, encoding an image in the second region into an encoded frame for the second region based on the image of the encoded frame for the first region and the image in the second region; The identification information indicating at least one of the first and second regions is assigned to the corresponding encoded frame, and the encoded frames for the first and second regions are output to the decoding device, The first and second identification information is given Each encoded frame for a region is received, and from each encoded frame for the first and second regions, an encoded frame for the first region is selected based on the identification information, and a code for the selected first region is selected A moving image processing system is proposed that decodes a frame into a decoded image and outputs the decoded image.

本発明の一側面によれば、符号化効率の向上化を図ることができるという効果を奏する。   According to one aspect of the present invention, there is an effect that the encoding efficiency can be improved.

図1は、符号化装置の動作例を示す説明図である。FIG. 1 is an explanatory diagram illustrating an operation example of the encoding device. 図2は、ベースビューと拡張ビューの参照制約の例を示す説明図である。FIG. 2 is an explanatory diagram illustrating an example of reference constraints for the base view and the extended view. 図3は、符号化装置のハードウェア構成の一例を示すブロック図である。FIG. 3 is a block diagram illustrating an example of a hardware configuration of the encoding device. 図4は、復号装置のハードウェア構成の一例を示すブロック図である。FIG. 4 is a block diagram illustrating an example of a hardware configuration of the decoding device. 図5は、符号化装置と復号装置の機能的構成例を示すブロック図である。FIG. 5 is a block diagram illustrating a functional configuration example of the encoding device and the decoding device. 図6は、横位置撮影時の画面の抽出の一例を示す説明図である。FIG. 6 is an explanatory diagram showing an example of screen extraction at the time of horizontal position shooting. 図7は、縦位置撮影時の画面の抽出方法の一例を示す説明図である。FIG. 7 is an explanatory diagram illustrating an example of a screen extraction method during vertical position shooting. 図8は、動き補償の参照方向の一例を示す説明図である。FIG. 8 is an explanatory diagram illustrating an example of a reference direction for motion compensation. 図9は、ダミーフレームを設定した場合の参照先の一例を示す説明図である。FIG. 9 is an explanatory diagram illustrating an example of a reference destination when a dummy frame is set. 図10は、ストリーム内におけるダミーフレームの設定例である。FIG. 10 shows an example of setting dummy frames in a stream. 図11は、縦横情報とダミーフレーム情報の設定例を示す説明図である。FIG. 11 is an explanatory diagram showing a setting example of vertical / horizontal information and dummy frame information. 図12は、符号化処理の一例を示す説明図である。FIG. 12 is an explanatory diagram illustrating an example of the encoding process. 図13Aは、横位置撮影時の動きベクトル探索範囲の一例を示す説明図(その1)である。FIG. 13A is an explanatory diagram (part 1) illustrating an example of a motion vector search range during horizontal position shooting. 図13Bは、横位置撮影時の動きベクトル探索範囲の一例を示す説明図(その2)である。FIG. 13B is an explanatory diagram (part 2) illustrating an example of a motion vector search range at the time of horizontal position shooting. 図14Aは、縦位置撮影時の動きベクトル探索範囲の一例を示す説明図(その1)である。FIG. 14A is an explanatory diagram (part 1) illustrating an example of a motion vector search range during vertical position shooting. 図14Bは、縦位置撮影時の動きベクトル探索範囲の一例を示す説明図(その2)である。FIG. 14B is an explanatory diagram (part 2) illustrating an example of a motion vector search range during vertical position shooting. 図15は、復号処理の一例を示す説明図である。FIG. 15 is an explanatory diagram showing an example of the decoding process. 図16Aは、出力画像結合処理の具体例を示す説明図(その1)である。FIG. 16A is an explanatory diagram (part 1) illustrating a specific example of output image combining processing. 図16Bは、出力画像結合処理の具体例を示す説明図(その2)である。FIG. 16B is an explanatory diagram (part 2) of the specific example of the output image combining process. 図16Cは、出力画像結合処理の具体例を示す説明図(その3)である。FIG. 16C is an explanatory diagram (part 3) of the specific example of the output image combining process. 図17は、符号化処理手順の一例を示すフローチャートである。FIG. 17 is a flowchart illustrating an example of an encoding processing procedure. 図18Aは、MVC符号化処理の一例を示すフローチャート(その1)である。FIG. 18A is a flowchart (part 1) illustrating an example of the MVC encoding process. 図18Bは、MVC符号化処理の一例を示すフローチャート(その2)である。FIG. 18B is a flowchart (part 2) illustrating an example of the MVC encoding process. 図19は、ベースビュー内の動きベクトル探索範囲決定処理の一例を示すフローチャートである。FIG. 19 is a flowchart illustrating an example of a motion vector search range determination process in the base view. 図20Aは、横位置撮影時の拡張ビュー内の動きベクトル探索範囲決定処理の一例を示すフローチャート(その1)である。FIG. 20A is a flowchart (part 1) illustrating an example of a motion vector search range determination process in the extended view at the time of horizontal position shooting. 図20Bは、横位置撮影時の拡張ビュー内の動きベクトル探索範囲決定処理の一例を示すフローチャート(その2)である。FIG. 20B is a flowchart (part 2) illustrating an example of the motion vector search range determination process in the extended view at the time of horizontal position shooting. 図21Aは、縦位置撮影時の拡張ビュー内の動きベクトル探索範囲決定処理の一例を示すフローチャート(その1)である。FIG. 21A is a flowchart (part 1) illustrating an example of a motion vector search range determination process in the extended view at the time of vertical position shooting. 図21Bは、縦位置撮影時の拡張ビュー内の動きベクトル探索範囲決定処理の一例を示すフローチャート(その2)である。FIG. 21B is a flowchart (part 2) illustrating an example of the motion vector search range determination process in the extended view at the time of vertical position shooting. 図22Aは、復号処理手順の一例を示すフローチャート(その1)である。FIG. 22A is a flowchart (part 1) illustrating an example of a decoding processing procedure. 図22Bは、復号処理手順の一例を示すフローチャート(その2)である。FIG. 22B is a flowchart (part 2) illustrating an example of the decoding processing procedure.

以下に添付図面を参照して、本発明の符号化装置、復号装置、動画像処理システム、符号化方法、復号方法、符号化プログラム、および復号プログラムの実施の形態を詳細に説明する。   Exemplary embodiments of an encoding device, a decoding device, a moving image processing system, an encoding method, a decoding method, an encoding program, and a decoding program according to the present invention will be described below in detail with reference to the accompanying drawings.

図1は、符号化装置の動作例を示す説明図である。図1では、動画像を符号化する符号化装置101の動作について説明している。符号化装置101は、撮影対象物aを含む撮影範囲110を撮影している。また、ユーザは、ディスプレイ102を確認しながら撮影している。ディスプレイ102は、フルHD(High Definition)となる横1920[画素]、縦1080[画素]の表示領域を有している。符号化装置101は、撮影範囲110に映った情報を、横3840[画素]、縦2160[画素]の入力動画像として受け付けて、横3840[画素]、縦1080[画素]の動画像へと符号化する。   FIG. 1 is an explanatory diagram illustrating an operation example of the encoding device. FIG. 1 illustrates the operation of the encoding apparatus 101 that encodes a moving image. The encoding device 101 captures an imaging range 110 including the imaging object a. The user is shooting while checking the display 102. The display 102 has a display area of horizontal 1920 [pixels] and vertical 1080 [pixels], which is full HD (High Definition). The encoding apparatus 101 accepts the information shown in the shooting range 110 as an input moving image with horizontal 3840 [pixel] and vertical 2160 [pixel], and converts it into a moving image with horizontal 3840 [pixel] and vertical 1080 [pixel]. Encode.

以下、フルHDの解像度を「2k1k」と称し、横3840[画素]、縦2160[画素]となる解像度を「4k2k」と称し、横3840[画素]、縦1080[画素]となる解像度を「4k1k」と称する。   Hereinafter, the resolution of full HD is referred to as “2k1k”, the resolution of horizontal 3840 [pixel] and vertical 2160 [pixel] is referred to as “4k2k”, and the resolution of horizontal 3840 [pixel] and vertical 1080 [pixel] is “ 4k1k ".

このように、2k1kのフルHDの解像度から水平方向に拡張した4k1kの動画像を記録し、再生時にはほとんど中心の2k1kを表示する用途において、符号化装置101は、ディスプレイ102に表示する動画像の復号量を低減化することを目的とする。   As described above, in the application in which a 4k1k moving image expanded in the horizontal direction from the resolution of 2k1k full HD is recorded and the center 2k1k is displayed at the time of reproduction, the encoding apparatus 101 displays the moving image to be displayed on the display 102. The purpose is to reduce the amount of decoding.

初めに、本実施の形態にかかる符号化装置101は、H.264 MVCの規格に従って、入力画像111を複数の視点から撮影された動画像として取り扱う。H.264 MVCでは、1つのベースビューと、1つ以上の非ベースビューとして符号化を行う。ベースビューは、H.264 AVC(Advanced Video Coding)で定義されたハイプロファイルのストリームとして符号化される。非ベースビューは、H.264 MVCで新たに拡張されたプロファイルとシンタックスを用いて、他のビューや自分自身のビューに含まれるフレームを参照して符号化される。   First, the encoding apparatus 101 according to the present embodiment is an H.264. In accordance with the H.264 MVC standard, the input image 111 is handled as a moving image taken from a plurality of viewpoints. H. In H.264 MVC, encoding is performed as one base view and one or more non-base views. The base view is H.264. It is encoded as a high profile stream defined by H.264 AVC (Advanced Video Coding). The non-base view is H.264. Using the profile and syntax newly extended with H.264 MVC, encoding is performed with reference to frames included in other views or in one's own view.

ベースビュー内の画像は、独立して再生可能な形式に符号化され、非ベースビューの画像は、ベースビューの画像を参照して符号化することで、それぞれ単体で符号化される場合よりも、符号化効率を向上することができる。なお、H.264 MVCは、3D動画像コンテンツで用いられることを想定しており、複数の視点から観測される画像どうしが、同一時刻で近い画素となるという特徴を用いて、符号化効率を向上することができる。   Images in the base view are encoded in a format that can be played independently, and images in the non-base view are encoded by referring to the images in the base view. Encoding efficiency can be improved. H. H.264 MVC is assumed to be used in 3D moving image content, and it is possible to improve encoding efficiency by using the feature that images observed from a plurality of viewpoints are pixels close to each other at the same time. it can.

入力動画像を受け付けた符号化装置101は、入力動画像のいずれかの入力画像111から、ベースビュー内の画像および非ベースビューである拡張ビューの画像を抽出し、それぞれを符号化する。ベースビューは、4k2kの中央部分の2k1kの領域に設定されており、拡張ビューは、ベースビューの左側の1k1kの領域と、ベースビューの右側の1k1kの領域と、に設定されている。   The encoding apparatus 101 that has received the input moving image extracts an image in the base view and an extended view image that is a non-base view from any one of the input images 111 of the input moving image, and encodes each of them. The base view is set to a 2k1k area at the center of 4k2k, and the extended view is set to a 1k1k area on the left side of the base view and a 1k1k area on the right side of the base view.

続けて、符号化装置101は、ベースビュー内の画像と拡張ビュー内の画像を符号化し、ストリーム121に出力する。ストリーム121は、先頭から順々にアクセスされるデータである。なお、ストリーム121は、符号化装置101内の記録装置に記録されている。   Subsequently, the encoding apparatus 101 encodes the image in the base view and the image in the extended view, and outputs the encoded image to the stream 121. The stream 121 is data accessed sequentially from the top. The stream 121 is recorded in a recording device in the encoding device 101.

具体的に、符号化装置101は、ベースビュー内の画像を符号化し、符号化フレーム122をストリーム121に出力する。また、符号化装置101は、拡張ビュー内の画像を符号化し、符号化フレーム123をストリーム121に出力する。なお、符号化フレーム123は、ベースビュー符号化時のローカルデコード画像を参照して符号化されている。また、符号化フレーム123には、拡張ビュー内の画像が符号化されたことを示す識別情報124が付与されている。なお、符号化装置101は、ベースビュー内の画像が符号化されたことを示す識別情報を符号化フレーム122に付与してもよい。   Specifically, the encoding apparatus 101 encodes an image in the base view and outputs an encoded frame 122 to the stream 121. Also, the encoding apparatus 101 encodes an image in the extended view and outputs an encoded frame 123 to the stream 121. The encoded frame 123 is encoded with reference to a local decoded image at the time of base view encoding. In addition, identification information 124 indicating that an image in the extended view has been encoded is assigned to the encoded frame 123. Note that the encoding apparatus 101 may add identification information indicating that an image in the base view has been encoded to the encoded frame 122.

次に、撮影後の再生時において、符号化装置101は、符号化フレーム122、符号化フレーム123のうち、識別情報124を検出して、識別情報124が付与されていない、ベースビューに対応する符号化フレーム122を選択し、符号化フレーム122を復号する。続けて、符号化装置101は、復号された画像をディスプレイ102に表示する。なお、撮影時の再生を行う場合、符号化装置101は、ベースビュー内の画像を、符号化や復号化を行わず、そのままディスプレイ102に表示する。   Next, at the time of reproduction after shooting, the encoding apparatus 101 detects the identification information 124 out of the encoded frame 122 and the encoded frame 123 and corresponds to the base view to which the identification information 124 is not given. The encoded frame 122 is selected, and the encoded frame 122 is decoded. Subsequently, the encoding apparatus 101 displays the decoded image on the display 102. In addition, when performing reproduction at the time of shooting, the encoding apparatus 101 displays an image in the base view on the display 102 as it is without encoding or decoding.

このように、符号化装置101は、H.264 MVCを用いて、4k2kの画像から、2k1kを独立したベースビューとし、ベースビューの左右の領域をベースビューを参照する拡張ビューとして、ベースビュー内の画像と拡張ビュー内の画像を抽出する。続けて、符号化装置101は、抽出した画像を符号化した符号化フレーム122、符号化フレーム123のいずれか一方に識別情報124を付与する。識別情報124を付与することにより、識別情報124を検出してベースビューを復号する装置は、識別情報124に基づいて復号対象をベースビューに対する符号化フレームに限定できるため、復号量が低減化でき、復号にかかる時間を短縮できる。次に、図1で適用したH.264 MVCの規格に従った、ベースビューと拡張ビューの参照制約について説明する。   As described above, the encoding apparatus 101 is the H.264 standard. Using H.264 MVC, an image in the base view and an image in the extended view are extracted from a 4k2k image, with 2k1k as an independent base view and left and right regions of the base view as extended views that refer to the base view. Subsequently, the encoding apparatus 101 assigns identification information 124 to either the encoded frame 122 or the encoded frame 123 obtained by encoding the extracted image. By providing the identification information 124, an apparatus that detects the identification information 124 and decodes the base view can limit the decoding target to the encoded frame for the base view based on the identification information 124, and thus the amount of decoding can be reduced. The time required for decoding can be shortened. Next, the H.P. The reference restriction of the base view and the extended view according to the H.264 MVC standard will be described.

図2は、ベースビューと拡張ビューの参照制約の例を示す説明図である。図2の(A)で示す表201は、ベースビューと拡張ビューの参照制約の一覧を示しており、図2の(B)は、表201にして示した参照制約を適用した場合の具体例を示した図である。   FIG. 2 is an explanatory diagram illustrating an example of reference constraints for the base view and the extended view. A table 201 shown in FIG. 2A shows a list of reference constraints of the base view and the extended view, and FIG. 2B shows a specific example when the reference constraints shown in the table 201 are applied. FIG.

H.264 MVCの規格では、フレーム間予測を用いずに符号化されたI(Intra−coded)ピクチャ、前方向に存在するフレームを参照して符号化されたP(Predictive)ピクチャ、1つまたは2つのフレームを参照して符号化されたB(Bi−predictive)ピクチャ等が存在する。また、H.264 MVCでは、1つのフレームを分割したスライス単位で、どのフレーム間予測を用いるかを選択できる。具体的に、H.264 MVCでは、スライスごとに、フレーム間予測を用いずに符号化されたIスライス、前方向に存在するスライスを参照符号化されたPスライス、1つまたは2つのスライスを参照して符号化されたBスライスの指定が行える。本実施の形態では、説明の簡略化のため、1つのフレームは、1つのスライスであるとする。   H. In the H.264 MVC standard, an I (Intra-coded) picture encoded without using inter-frame prediction, a P (Predictive) picture encoded with reference to a frame existing in the forward direction, one or two There are B (Bi-predictive) pictures encoded with reference to frames. H. In H.264 MVC, it is possible to select which inter-frame prediction is used for each slice obtained by dividing one frame. Specifically, H.M. In H.264 MVC, each slice is encoded with reference to an I slice coded without using inter-frame prediction, a P slice coded with reference to a slice existing in the forward direction, or one or two slices. B slice can be specified. In the present embodiment, it is assumed that one frame is one slice for simplification of description.

図2の(B)は、時刻t0におけるベースビュー内の画像b0と拡張ビュー内の画像d0と、時刻t1におけるベースビュー内の画像b1と拡張ビュー内の画像d1と、時刻t2におけるベースビュー内の画像b2と拡張ビュー内の画像d2を示した図である。   FIG. 2B shows the image b0 in the base view and the image d0 in the extended view at the time t0, the image b1 in the base view and the image d1 in the extended view at the time t1, and the base view at the time t2. It is the figure which showed image b2 of this, and the image d2 in an extended view.

参照元の画像がベースビューに属し、参照先の画像がベースビューに属する場合、H.264 MVCは、参照元の画像を、ベースビュー内の過去のフレームと未来のフレームを参照して符号化することができると規定している。参照元の画像がベースビューに属し、参照先の画像がベースビューに属する場合については、表201では、(1)で示したフィールドである。符号化装置101は、たとえば、画像b1の符号化時に、(1)で示す矢印で示された、画像b0と画像b2を参照することができる。   If the reference source image belongs to the base view and the reference destination image belongs to the base view, H.264 MVC specifies that a reference image can be encoded with reference to past and future frames in the base view. The case where the reference source image belongs to the base view and the reference destination image belongs to the base view is the field indicated by (1) in Table 201. For example, the encoding device 101 can refer to the image b0 and the image b2 indicated by the arrow indicated by (1) when the image b1 is encoded.

参照元の画像がベースビューに属し、参照先の画像が拡張ビューに属する場合、H.264 MVCは、拡張ビューに属する画像の参照では、参照元の画像の符号化はできないと規定している。符号化装置101は、たとえば、画像b1の符号化時に、画像d0〜画像d2を参照することができない。   When the reference source image belongs to the base view and the reference destination image belongs to the extended view, H.264 MVC stipulates that the reference image cannot be encoded by referring to the image belonging to the extended view. For example, the encoding device 101 cannot refer to the images d0 to d2 when encoding the image b1.

参照元の画像が拡張ビューに属し、参照先の画像がベースビューに属する場合、H.264 MVCは、参照元の画像を、同一時刻となるベースビューに属する画像を参照して符号化することができると規定している。参照元の画像が拡張ビューに属し、参照先の画像がベースビューに属する場合については、表201では、(2)で示したフィールドである。符号化装置101は、たとえば、画像d1の符号化時に、(2)で示す矢印で示された、画像b1を参照することができる。   When the reference source image belongs to the extended view and the reference destination image belongs to the base view, H.264 MVC specifies that a reference image can be encoded with reference to images belonging to a base view at the same time. The case where the reference source image belongs to the extended view and the reference destination image belongs to the base view is the field indicated by (2) in Table 201. For example, the encoding device 101 can refer to the image b1 indicated by the arrow indicated by (2) when encoding the image d1.

参照元が拡張ビューに属し、参照先が拡張ビューに属する場合、H.264 MVCは、参照元の画像を、過去のフレームと未来のフレームを参照して符号化することができると規定している。参照元が拡張ビューに属し、参照先が拡張ビューに属する場合については、表201では、(3)で示したフィールドである。符号化装置101は、たとえば、画像d1の符号化時に、(3)で示す矢印で示された、画像d0と画像d2を参照することができる。このように、H.264 MVCは、ベースビューの符号化フレームが拡張ビューの画像を参照しないようにすることで、ベースビュー単体での再生を可能にしている。   When the reference source belongs to the extended view and the reference destination belongs to the extended view, H.264 MVC stipulates that a reference image can be encoded with reference to a past frame and a future frame. The case where the reference source belongs to the extended view and the reference destination belongs to the extended view is the field indicated by (3) in Table 201. For example, the encoding apparatus 101 can refer to the image d0 and the image d2 indicated by the arrow indicated by (3) when the image d1 is encoded. In this way, H.C. H.264 MVC makes it possible to reproduce the base view alone by preventing the encoded frame of the base view from referring to the image of the extended view.

続けて、本実施の形態にかかるハードウェアの説明を行う。本実施の形態にて採用するハードウェアは、動画像の記録と再生を行う符号化装置101と、動画像の再生を行う復号装置と、である。図3にて、符号化装置101の説明を行い、図4にて、復号装置の説明を行う。   Subsequently, the hardware according to the present embodiment will be described. The hardware employed in the present embodiment is an encoding device 101 that records and reproduces a moving image, and a decoding device that reproduces the moving image. The encoding apparatus 101 will be described with reference to FIG. 3, and the decoding apparatus will be described with reference to FIG.

(符号化装置101のハードウェア構成例)
図3は、符号化装置のハードウェア構成の一例を示すブロック図である。図3において、動画像の記録と再生を行う符号化装置101は、CPU(Central Processing Unit)301と、ROM(Read‐Only Memory)302と、RAM(Random Access Memory)303と、を含む。また、符号化装置101は、撮像素子304と、撮像素子IF(InterFace)305と、ジャイロセンサ306と、操作パネルコントローラ307と、記録メディア308と、外部IF309と、を含む。また、符号化装置101は、画像処理部310と、MVC符号化復号処理部311と、を含む。
(Example of hardware configuration of encoding apparatus 101)
FIG. 3 is a block diagram illustrating an example of a hardware configuration of the encoding device. In FIG. 3, an encoding apparatus 101 that records and reproduces a moving image includes a CPU (Central Processing Unit) 301, a ROM (Read-Only Memory) 302, and a RAM (Random Access Memory) 303. The encoding device 101 also includes an image sensor 304, an image sensor IF (InterFace) 305, a gyro sensor 306, an operation panel controller 307, a recording medium 308, and an external IF 309. The encoding apparatus 101 includes an image processing unit 310 and an MVC encoding / decoding processing unit 311.

また、符号化装置101は、ディスプレイ102と、ディスプレイ出力IF312と画像出力IF313と、を含む。また、CPU301〜RAM303と、撮像素子IF305、外部IF309〜MVC符号化復号処理部311と、ディスプレイ出力IF312と、画像出力IF313は、バスコントローラ314で相互に接続されている。   The encoding apparatus 101 includes a display 102, a display output IF 312 and an image output IF 313. The CPU 301 to RAM 303, the image sensor IF 305, the external IF 309 to MVC encoding / decoding processing unit 311, the display output IF 312, and the image output IF 313 are mutually connected by a bus controller 314.

CPU301は、符号化装置101の全体の制御を司る演算処理装置である。ROM302は、符号化装置101のブートプログラムなどのプログラムを記憶する不揮発性メモリである。RAM303は、CPU301のワークエリアとして使用される揮発性メモリである。   The CPU 301 is an arithmetic processing device that controls the entire encoding device 101. The ROM 302 is a non-volatile memory that stores programs such as a boot program of the encoding apparatus 101. A RAM 303 is a volatile memory used as a work area for the CPU 301.

撮像素子304は、対象物から発した光を電気信号に変換する。たとえば、撮像素子304は、CCD(Charge Coupled Device)イメージセンサ、やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどである。   The image sensor 304 converts light emitted from the object into an electrical signal. For example, the imaging device 304 is a CCD (Charge Coupled Device) image sensor, a CMOS (Complementary Metal Oxide Semiconductor) image sensor, or the like.

撮像素子IF305は、記録時に撮像素子304を制御することにより、撮像素子304からの信号を所定の画像フォーマットに変換してRAM303に格納する。所定の画像フォーマットとは、たとえば、YUV420である。撮像素子304からの信号は、たとえば、RGBベイヤフォーマットに従っている。   The image sensor IF 305 controls the image sensor 304 at the time of recording, thereby converting a signal from the image sensor 304 into a predetermined image format and storing it in the RAM 303. The predetermined image format is, for example, YUV420. The signal from the image sensor 304 is in accordance with, for example, the RGB Bayer format.

ジャイロセンサ306は、符号化装置101の角度を検出する。操作パネルコントローラ307は、符号化装置101が有する液晶タッチパネルや操作ボタンである。記録メディア308は、フラッシュROM等といった記憶装置であり、符号化フレームが含まれるストリーム121を記録する。また、記録メディア308は、本実施の形態にかかる符号化プログラムを記録していてもよい。外部IF309は、ジャイロセンサ306、操作パネルコントローラ307、および記録メディア308を制御する。また、外部IF309は、通信回線を通じてLAN(Local Area Network)、WAN(Wide Area Network)、インターネットなどのネットワークを介して、符号化装置101以外の他の装置に接続されてもよい。   The gyro sensor 306 detects the angle of the encoding device 101. An operation panel controller 307 is a liquid crystal touch panel and operation buttons included in the encoding device 101. The recording medium 308 is a storage device such as a flash ROM, and records a stream 121 including an encoded frame. Further, the recording medium 308 may record the encoding program according to the present embodiment. The external IF 309 controls the gyro sensor 306, the operation panel controller 307, and the recording medium 308. Further, the external IF 309 may be connected to a device other than the encoding device 101 via a communication line such as a LAN (Local Area Network), a WAN (Wide Area Network), or the Internet.

画像処理部310は、RAM303に格納された画像に対して画像処理を行う。具体的に、画像処理部310は、記録時には撮像素子304からの入力画像111をRAM303から読み出して、CPU301から指定された縦横情報を元に、入力画像111からベースビューの画像と拡張ビューの画像を抽出して再度RAM303に格納する。   The image processing unit 310 performs image processing on the image stored in the RAM 303. Specifically, at the time of recording, the image processing unit 310 reads the input image 111 from the image sensor 304 from the RAM 303, and based on the vertical and horizontal information specified by the CPU 301, the base view image and the extended view image are input from the input image 111. Is extracted and stored in the RAM 303 again.

縦横情報は、符号化装置101の角度に関する情報である。符号化装置101の角度とは、水平面に対する符号化装置の角度である。たとえば、符号化装置101が水平面に対して垂直である場合、符号化装置101の角度に関する情報は、縦を向いていた、という情報となる。また、符号化装置101が水平面に対して並行である場合、符号化装置101の角度に関する情報は、横を向いていた、という情報となる。   The vertical / horizontal information is information related to the angle of the encoding apparatus 101. The angle of the encoding device 101 is the angle of the encoding device with respect to the horizontal plane. For example, when the encoding device 101 is perpendicular to the horizontal plane, the information related to the angle of the encoding device 101 is information that the image is oriented vertically. Further, when the encoding device 101 is parallel to the horizontal plane, the information regarding the angle of the encoding device 101 is information indicating that the device is facing sideways.

また、画像処理部310は、再生時に、CPU301から指定された縦横情報とダミーフレーム情報に基づいて、RAM303から対応するベースビューの復号画像と拡張ビューの復号画像を読み出して、ベースビューの復号画像と拡張ビューの復号画像を結合する。次に、画像処理部310は、ユーザに指定された表示領域の画像を切り出した後、再度RAM303に格納する。ダミーフレーム情報は、ベースビューを遅延するために設定された、ダミーフレームの数、位置の情報である。   Also, the image processing unit 310 reads the corresponding base view decoded image and extended view decoded image from the RAM 303 based on the vertical / horizontal information and the dummy frame information specified by the CPU 301 during reproduction, and the base view decoded image. And the decoded image of the extended view. Next, the image processing unit 310 cuts out an image of the display area designated by the user, and then stores the image in the RAM 303 again. The dummy frame information is information on the number and position of dummy frames set to delay the base view.

MVC符号化復号処理部311は、記録時にプロセッサより指定されたベースビューの画像と、拡張ビューの画像をRAM303から取得してH.264 MVCによる符号化処理を行う。符号化フレームを有するストリーム121は、外部IF309を通して記録メディア308に書き込まれる。また、MVC符号化復号処理部311は、再生時には、記録メディア308からのストリーム121内の符号化フレームを復号し、復号画像をRAM303に格納する。また、MVC符号化復号処理部311は、ストリーム121に縦横情報、ダミーフレーム情報をCPU301に記録する。   The MVC encoding / decoding processing unit 311 obtains the base view image and the extended view image designated by the processor at the time of recording from the RAM 303, and outputs the H.264 image. H.264 MVC encoding processing is performed. A stream 121 having an encoded frame is written to the recording medium 308 through the external IF 309. In addition, the MVC encoding / decoding processing unit 311 decodes the encoded frame in the stream 121 from the recording medium 308 and stores the decoded image in the RAM 303 at the time of reproduction. In addition, the MVC encoding / decoding processing unit 311 records vertical / horizontal information and dummy frame information in the stream 121 in the CPU 301.

本実施の形態にかかる画像処理部310とMVC符号化復号処理部311は、高速で処理を行うために、たとえばストラクチャードASIC(Application Specific Integrated Circuit)などの特定用途向けICで実現してもよい。また、符号化装置101はCPU301に対し、画像処理部310およびMVC符号化復号処理部311での処理を実行させてもよい。   The image processing unit 310 and the MVC encoding / decoding processing unit 311 according to the present embodiment may be realized by an application-specific IC such as a structured ASIC (Application Specific Integrated Circuit) in order to perform processing at high speed. Further, the encoding apparatus 101 may cause the CPU 301 to execute processing in the image processing unit 310 and the MVC encoding / decoding processing unit 311.

ディスプレイ102は、記録時にベースビューの画像を表示する。また、ディスプレイ102は、再生時に画像処理部310が出力した、ユーザに指定された表示領域の画像を表示してもよい。たとえば、ディスプレイ102は、液晶ディスプレイなどを採用することができる。ディスプレイ出力IF312は、ディスプレイ102の制御を行う。   The display 102 displays a base view image during recording. The display 102 may display an image in a display area designated by the user, which is output from the image processing unit 310 during reproduction. For example, the display 102 can employ a liquid crystal display or the like. The display output IF 312 controls the display 102.

画像出力IF313は、再生時に画像処理部310から出力された、ユーザに指定された表示領域の画像をRAM303から読み出し、符号化装置101に接続されたテレビ受像機等に表示領域の画像を出力する。   The image output IF 313 reads the image of the display area designated by the user output from the image processing unit 310 at the time of reproduction from the RAM 303 and outputs the image of the display area to a television receiver or the like connected to the encoding device 101. .

(復号装置400のハードウェア構成例)
図4は、復号装置のハードウェア構成の一例を示すブロック図である。図4において、動画像の再生を行う復号装置400は、CPU401と、ROM402と、RAM403と、操作パネルコントローラ404と、記録メディア405と、外部IF406と、を含む。また、復号装置400は、画像処理部407と、MVC復号処理部408と、画像出力IF409と、を含む。また、CPU401〜RAM403と、外部IF406〜画像出力IF409は、バスコントローラ410で相互に接続されている。
(Hardware configuration example of decoding device 400)
FIG. 4 is a block diagram illustrating an example of a hardware configuration of the decoding device. In FIG. 4, a decoding device 400 that reproduces a moving image includes a CPU 401, a ROM 402, a RAM 403, an operation panel controller 404, a recording medium 405, and an external IF 406. In addition, the decoding device 400 includes an image processing unit 407, an MVC decoding processing unit 408, and an image output IF 409. The CPU 401 to RAM 403 and the external IF 406 to the image output IF 409 are connected to each other by a bus controller 410.

CPU401は、復号装置400の全体の制御を司る。ROM402は、復号装置400のブートプログラムなどのプログラムを記憶している。RAM403は、CPU401のワークエリアとして使用される。   The CPU 401 governs overall control of the decoding device 400. The ROM 402 stores a program such as a boot program for the decoding device 400. The RAM 403 is used as a work area for the CPU 401.

操作パネルコントローラ404は、復号装置400が有する液晶タッチパネルや操作ボタンである。記録メディア405は、フラッシュROM等といった記憶装置であり、符号化フレームが含まれるストリーム121を記憶する。また、記録メディア405は、本実施の形態にかかる復号プログラムを記録していてもよい。外部IF406は、操作パネルコントローラ404および記録メディア405を制御する。また、外部IF406は、通信回線を通じてLAN、WAN、インターネットなどのネットワークに接続され、ネットワークを介して復号装置400以外の他の装置に接続されてもよい。   The operation panel controller 404 is a liquid crystal touch panel or operation buttons that the decoding device 400 has. The recording medium 405 is a storage device such as a flash ROM, and stores a stream 121 including an encoded frame. Further, the recording medium 405 may record the decryption program according to the present embodiment. The external IF 406 controls the operation panel controller 404 and the recording medium 405. The external IF 406 may be connected to a network such as a LAN, WAN, or the Internet via a communication line, and may be connected to another device other than the decoding device 400 via the network.

画像処理部407は、CPU401から指定された縦横情報とダミーフレーム情報に基づいて、RAM403から対応するベースビューの復号画像と拡張ビューの復号画像を読み出して、ベースビューの復号画像と拡張ビューの復号画像を結合する。次に、画像処理部407は、ユーザに指定された表示領域の画像を切り出した後、再度RAM303に格納する。   The image processing unit 407 reads the corresponding base view decoded image and extended view decoded image from the RAM 403 based on the vertical / horizontal information and dummy frame information specified by the CPU 401, and decodes the base view decoded image and the extended view decoded image. Merge images. Next, the image processing unit 407 cuts out an image of the display area designated by the user, and then stores the image in the RAM 303 again.

MVC復号処理部408は、記録メディア405から、ストリーム121内の符号化フレームを復号し、復号画像をRAM403に格納する。また、MVC復号処理部408は、ストリーム121中の縦横情報、ダミーフレーム情報をCPU401に通知する。   The MVC decoding processing unit 408 decodes the encoded frame in the stream 121 from the recording medium 405 and stores the decoded image in the RAM 403. In addition, the MVC decoding processing unit 408 notifies the CPU 401 of vertical / horizontal information and dummy frame information in the stream 121.

なお、動画像処理システムの接続例については、図示していないが、たとえば、符号化装置101と復号装置400が、外部IF309と外部IF406を介して接続されている。   Although an example of connection of the moving image processing system is not shown, for example, the encoding device 101 and the decoding device 400 are connected via an external IF 309 and an external IF 406.

(符号化装置101と復号装置400の機能的構成例)
次に、符号化装置101と復号装置400の機能的構成例について説明する。図5は、符号化装置101と復号装置400の機能的構成例を示すブロック図である。符号化装置101は、受付部501と、取得部502と、決定部503と、抽出部504と、第1符号化部505と、第2符号化部506と、生成部507と、設定部508と、出力部509と、を含む。また、復号装置400は、受付部521と、選択部522と、指定部523と、変換部524と、復号部525と、抽出部526と、結合部527と、出力部528と、を含む。
(Functional configuration examples of the encoding device 101 and the decoding device 400)
Next, functional configuration examples of the encoding device 101 and the decoding device 400 will be described. FIG. 5 is a block diagram illustrating a functional configuration example of the encoding device 101 and the decoding device 400. The encoding apparatus 101 includes a reception unit 501, an acquisition unit 502, a determination unit 503, an extraction unit 504, a first encoding unit 505, a second encoding unit 506, a generation unit 507, and a setting unit 508. And an output unit 509. Decoding device 400 includes reception unit 521, selection unit 522, designation unit 523, conversion unit 524, decoding unit 525, extraction unit 526, combining unit 527, and output unit 528.

本実施の形態では、符号化装置101の受付部501〜出力部509のうち、抽出部504が画像処理部310の機能であり、第1符号化部505と第2符号化部506がMVC符号化復号処理部311の機能である。抽出部504〜第2符号化部506以外の機能部に関しては、記憶装置に記憶されたプログラムをCPU301が実行することにより、その機能を実現する。記憶装置とは、具体的には、たとえば、図3に示したROM302、RAM303、記録メディア308などである。また、画像処理部310と、MVC符号化復号処理部311が、抽出部504〜第2符号化部506以外の機能部を実行してもよい。   In the present embodiment, of the receiving unit 501 to the output unit 509 of the encoding apparatus 101, the extraction unit 504 is a function of the image processing unit 310, and the first encoding unit 505 and the second encoding unit 506 are MVC codes. This is a function of the decoding / decoding processing unit 311. Regarding the functional units other than the extraction unit 504 to the second encoding unit 506, the CPU 301 executes the program stored in the storage device, thereby realizing the function. Specifically, the storage device is, for example, the ROM 302, the RAM 303, the recording medium 308, or the like shown in FIG. The image processing unit 310 and the MVC encoding / decoding processing unit 311 may execute functional units other than the extraction unit 504 to the second encoding unit 506.

また、復号装置400の受付部521〜出力部528のうち、復号部525がMVC復号処理部408の機能であり、抽出部526と、結合部527が画像処理部407の機能である。復号部525〜結合部527以外の機能部に関しては、記憶装置に記憶されたプログラムをCPU401が実行することにより、その機能を実現する。記憶装置とは、具体的には、たとえば、図4に示したROM402、RAM403、記録メディア405などである。また、画像処理部407と、MVC復号処理部408が、抽出部504〜第2符号化部506以外の機能部を実行してもよい。   Of the receiving unit 521 to the output unit 528 of the decoding device 400, the decoding unit 525 is a function of the MVC decoding processing unit 408, and the extraction unit 526 and the combining unit 527 are functions of the image processing unit 407. Regarding the functional units other than the decoding unit 525 to the combining unit 527, the CPU 401 executes the program stored in the storage device, thereby realizing the function. Specifically, the storage device is, for example, the ROM 402, the RAM 403, the recording medium 405, etc. shown in FIG. Further, the image processing unit 407 and the MVC decoding processing unit 408 may execute functional units other than the extraction unit 504 to the second encoding unit 506.

受付部501は、一連の画像を受け付ける。たとえば、受付部501は、入力動画像を受け付ける。符号化装置101は、受付部501の動作により、入力動画像の符号化を行う契機を検出することができる。なお、受け付けた入力画像は、RAM303等の記憶領域に記憶される。   The accepting unit 501 accepts a series of images. For example, the reception unit 501 receives an input moving image. The encoding apparatus 101 can detect a trigger for encoding the input moving image by the operation of the reception unit 501. The received input image is stored in a storage area such as the RAM 303.

取得部502は、受付部501によって、一連の画像を受け付けたときの自装置の角度に関する情報を取得する。ここで、自装置とは、取得部502を実行する装置でもよいし、または取得部502を実行する装置と物理的に接続された装置でもよい。角度に関する情報は、0度、90度といった自装置の角度でもよいし、自装置が横に傾いている、または、縦に傾いているといった情報でもよい。たとえば、取得部502は、ジャイロセンサ306によって符号化装置101の角度を取得する。   The acquisition unit 502 acquires information about the angle of the own device when a series of images is received by the reception unit 501. Here, the own device may be a device that executes the acquisition unit 502 or a device that is physically connected to a device that executes the acquisition unit 502. The information regarding the angle may be an angle of the own device such as 0 degrees or 90 degrees, or may be information such that the own device is inclined horizontally or vertically. For example, the acquisition unit 502 acquires the angle of the encoding device 101 using the gyro sensor 306.

ユーザは、撮影対象物aの形状が横長であれば横撮影を行い、縦長であれば縦撮影を行う。したがって、符号化装置101は、取得部502の動作により、撮影対象物aの形状に合わせた符号化処理を行うことができる。なお、取得した自装置の角度に関する情報は、RAM303等の記憶領域に記憶される。   The user performs horizontal shooting if the shape of the shooting target a is horizontally long, and performs vertical shooting if the shape of the shooting target a is vertically long. Therefore, the encoding apparatus 101 can perform an encoding process in accordance with the shape of the imaging target a by the operation of the acquisition unit 502. The acquired information regarding the angle of the own device is stored in a storage area such as the RAM 303.

決定部503は、取得部502によって取得された自装置の角度に応じて、第1および第2の領域の位置情報を決定する。第1の領域は、たとえば、ベースビューとなり、第2の領域は、拡張ビューである。図1で示した拡張ビューは、ベースビューの左右に隣接していたが、たとえば、ベースビューの左端に隣接している領域でもよいし、上端、右端、下端に隣接している画像でもよい。   The determining unit 503 determines the position information of the first and second regions according to the angle of the own device acquired by the acquiring unit 502. The first area is, for example, a base view, and the second area is an extended view. The extended view shown in FIG. 1 is adjacent to the left and right of the base view, but may be, for example, an area adjacent to the left end of the base view or an image adjacent to the upper end, right end, and lower end.

たとえば、自装置の角度に関する情報が横を示していたとする。このとき、決定部503は、第1の領域の位置情報を、左上の座標が(1k、0.5k)となり、縦1k[画素]、横2k[画素]となる矩形領域に決定する。また、決定部503は、第2の領域の位置情報を、左上の座標が(0、0.5k)となり、縦1k[画素]、横1k[画素]となる矩形領域と、左上の座標が(3k、0.5k)となり、縦1k[画素]、横1k[画素]となる矩形領域とに決定する。符号化装置101は、決定部503の動作により、撮影対象物aの形状に応じた撮影領域を決定することができる。なお、決定された位置情報は、RAM303等の記憶領域に記憶される。   For example, it is assumed that the information related to the angle of the own device indicates sideways. At this time, the determination unit 503 determines the position information of the first region to be a rectangular region in which the upper left coordinates are (1k, 0.5k) and the vertical 1k [pixel] and the horizontal 2k [pixel]. Further, the determination unit 503 obtains the position information of the second area, the upper left coordinates are (0, 0.5k), the rectangular area is 1k [pixel] in length and 1k [pixel] in width, and the upper left coordinates are (3k, 0.5k), and a rectangular area having 1k [pixel] in length and 1k [pixel] in width is determined. The encoding apparatus 101 can determine an imaging region corresponding to the shape of the imaging target a by the operation of the determination unit 503. The determined position information is stored in a storage area such as the RAM 303.

抽出部504は、一連の画像のいずれかの画像から、第1の領域内の画像と第1の領域に隣接する第2の領域内の画像とを抽出する。たとえば、図2で示した時刻t0において、抽出部504は、入力画像111から第1の領域内の画像bと、第2の領域内の画像dと、を抽出する。また、抽出部504は、いずれかの画像から、位置情報に従った第1の領域内の画像と位置情報に従った第2の領域内の画像とを抽出してもよい。符号化装置101は、抽出部504の動作により、H.264 MVCの規格に従った複数のビューの画像を準備できる。なお、抽出された画像は、RAM303等の記憶領域に記憶される。   The extraction unit 504 extracts an image in the first area and an image in the second area adjacent to the first area from any one of the series of images. For example, at time t0 illustrated in FIG. 2, the extraction unit 504 extracts the image b in the first region and the image d in the second region from the input image 111. The extraction unit 504 may extract an image in the first area according to the position information and an image in the second area according to the position information from any of the images. The encoding apparatus 101 uses the operation of the extraction unit 504 to perform H.264 encoding. Images of multiple views according to the H.264 MVC standard can be prepared. Note that the extracted image is stored in a storage area such as the RAM 303.

第1符号化部505は、第1の領域内の画像を第1の領域に対する符号化フレームに符号化する。たとえば、第1符号化部505は、画像bを、フレーム間予測を用いて、Iピクチャ、Pピクチャ、Bピクチャ等といった符号化フレームに符号化する。符号化装置101は、第1符号化部505の動作により、第1の領域内の動画像を生成することができる。なお、符号化フレームは、記録メディア308等の記憶領域に記憶される。   The first encoding unit 505 encodes the image in the first area into an encoded frame for the first area. For example, the first encoding unit 505 encodes the image b into encoded frames such as an I picture, a P picture, and a B picture using inter-frame prediction. The encoding apparatus 101 can generate a moving image in the first region by the operation of the first encoding unit 505. Note that the encoded frame is stored in a storage area such as the recording medium 308.

第2符号化部506は、第1の領域に対する符号化時のローカルデコード画像と第2の領域内の画像とに基づいて、第2の領域内の画像を第2の領域に対する符号化フレームに符号化する。また、第2符号化部506は、いずれかの画像の第1の領域に対する符号化フレームに先行する先行符号化フレーム群のうち前述の符号化フレームからダミーフレームの生成数分先行する先行符号化フレームのローカルデコード画像に基づいて符号化してもよい。ここで、先行符号化フレーム群とは、いずれかの画像の第1の領域に対する符号化フレームに先行する符号化フレーム群である。また、ローカルデコード画像は、参照されるフレームを符号化する際に用いる画像である。ストリーム121内のエンコード・デコード処理までは経由しない。   The second encoding unit 506 converts the image in the second area into an encoded frame for the second area based on the local decoded image at the time of encoding the first area and the image in the second area. Encode. The second encoding unit 506 also performs preceding encoding that precedes the number of generations of dummy frames from the preceding encoded frame among the preceding encoded frame groups preceding the encoded frame for the first region of any image. You may encode based on the local decoded image of a flame | frame. Here, the preceding encoded frame group is an encoded frame group preceding the encoded frame for the first region of any image. A local decoded image is an image used when encoding a frame to be referenced. It does not go through the encoding / decoding process in the stream 121.

たとえば、設定部508が、3つのダミーフレームを第1の領域に対する先頭の符号化フレームの次のフレームに設定したとする。このとき、第2符号化部506は、いずれかの画像の第2の領域内の画像と、いずれかの画像の第1の領域の3つ前の符号化フレームを復号した画像と、に基づいて、いずれかの画像の第2の領域内の画像を符号化フレームに符号化する。   For example, it is assumed that the setting unit 508 sets three dummy frames as a frame next to the first encoded frame for the first region. At this time, the second encoding unit 506 is based on the image in the second region of any image and the image obtained by decoding the encoded frame three previous to the first region of any image. Thus, an image in the second region of any image is encoded into an encoded frame.

また、第2符号化部506は、ダミーフレームが設定済の場合、生成部507によるダミーフレームの生成を行わずに、いずれかの画像の第2の領域内の画像を符号化フレームに符号化してもよい。   Further, when the dummy frame has been set, the second encoding unit 506 encodes an image in the second region of any image into the encoded frame without generating the dummy frame by the generating unit 507. May be.

たとえば、いずれかの画像が5番目の画像であり、設定部508が、第1の領域の先頭のフレームの次に、3つのダミーフレームを設定したとする。このとき、5番目の画像の第1の領域の符号化フレームは、ダミーフレームが設定済のために、先頭から8番目の位置にある。第2符号化部506は、5番目の画像の第2の領域内の画像と、5番目の画像の第1の領域の符号化フレームの3つ前の符号化フレームとに基づいて、5番目の画像の第2の領域内の画像を符号化する。なお、第2符号化部506は、第2の領域内の画像と復号した画像との差分を用いて符号化してもよいし、第2の領域内の画像と複合した画像とから動き補償を行って符号化してもよい。   For example, it is assumed that one of the images is the fifth image, and the setting unit 508 sets three dummy frames after the first frame in the first area. At this time, the encoded frame in the first area of the fifth image is at the eighth position from the beginning because the dummy frame has already been set. The second encoding unit 506 executes the fifth based on the image in the second area of the fifth image and the encoded frame three previous to the encoded frame in the first area of the fifth image. The image in the second region of the image is encoded. Note that the second encoding unit 506 may encode using the difference between the image in the second area and the decoded image, or perform motion compensation from the image combined with the image in the second area. Encoding may be performed.

また、第2符号化部506は、いずれかの画像の第1の領域に対する符号化フレームに後続する後続符号化フレーム群のうち前述の符号化フレームからダミーフレームの生成数分後続する後続符号化フレームを復号し、復号した復号画像に基づいて符号化してもよい。ここで、後続符号化フレーム群とは、いずれかの画像の第1の領域に対する符号化フレームに後続する符号化フレーム群である。   The second encoding unit 506 also performs subsequent encoding that follows the number of generations of dummy frames from the above-described encoded frame in the subsequent encoded frame group subsequent to the encoded frame for the first region of any image. The frame may be decoded and encoded based on the decoded image. Here, the subsequent encoded frame group is an encoded frame group that follows the encoded frame for the first region of any image.

たとえば、設定部508が、2つのダミーフレームを第2の領域に対する先頭の符号化フレームに設定したとする。このとき、第2符号化部506は、第2の領域に対する4番目の符号化フレームを、第1の領域の2番目の符号化フレームに後続するフレーム群のうち4番目の符号化フレームのローカルデコード画像と、第2の領域の2番目の画像と、に基づいて符号化する。符号化装置101は、第2符号化部506の動作により、第2の領域内の動画像を生成することができる。なお、符号化フレームは、記録メディア308等の記憶領域に記憶される。   For example, it is assumed that the setting unit 508 sets two dummy frames as the first encoded frame for the second region. At this time, the second encoding unit 506 sets the fourth encoded frame for the second region as the local of the fourth encoded frame in the frame group subsequent to the second encoded frame of the first region. Encoding is performed based on the decoded image and the second image in the second area. The encoding apparatus 101 can generate a moving image in the second region by the operation of the second encoding unit 506. Note that the encoded frame is stored in a storage area such as the recording medium 308.

生成部507は、第1符号化部505がいずれかの画像を符号化する場合、いずれかの画像の前の画像の第1の領域に対する符号化フレームのダミーフレームを、自符号化フレームで再生可能な特定の符号化フレームの出現間隔に含まれるフレーム数以下分生成する。また、生成部507は、前の画像のうち第1の領域内の画像に基づいて、ダミーフレームを生成する。   When the first encoding unit 505 encodes any image, the generation unit 507 reproduces the dummy frame of the encoded frame for the first region of the image before the any image with the self-encoded frame. As many as the number of frames included in the appearance interval of possible specific encoded frames are generated. In addition, the generation unit 507 generates a dummy frame based on the image in the first area among the previous images.

自符号化フレームで再生可能な特定の符号化フレームとは、Iピクチャ、またはIDR(Instantaneous Decoder Refresh)ピクチャである。IDRピクチャは、後続のピクチャにIDRピクチャより先行するピクチャへの参照を禁止する。したがって、IDRピクチャの出現間隔が、最大の参照可能枚数となる。生成部507は、特定の符号化フレームを、1つ生成してもよいし、IDRピクチャの出現間隔に含まれるフレーム数以下分生成してもよい。   The specific encoded frame that can be reproduced by the self-encoded frame is an I picture or an IDR (Instantaneous Decoder Refresh) picture. An IDR picture prohibits reference to a picture preceding the IDR picture in the subsequent picture. Accordingly, the IDR picture appearance interval is the maximum referenceable number. The generation unit 507 may generate one specific encoded frame, or may generate as many as the number of frames included in the IDR picture appearance interval.

いずれかの画像の先行画像群とは、いずれかの画像より、過去方向に存在する画像群である。ダミーフレームは、前の画像の第1の領域に対する符号化フレームを参照するフレームとなる場合がある。たとえば、前の画像の第1の領域に対する符号化フレームがIピクチャであれば、ダミーフレームは、Pピクチャ、またはBピクチャとなり、スキップマクロブロックが指定されたフレームとなる。   The preceding image group of any image is an image group existing in the past direction from any image. The dummy frame may be a frame that refers to an encoded frame for the first region of the previous image. For example, if the encoded frame for the first region of the previous image is an I picture, the dummy frame is a P picture or a B picture, and a skip macroblock is designated.

たとえば、第1符号化部505が、第1の領域の1番目の画像を符号化しており、2番目の画像を符号化するとする。このとき、生成部507は、いずれかの画像となる2番目の画像を符号化する場合、前の画像となる1番目の画像を第1符号化部505に生成数として3回入力する。これにより、第1符号化部505がダミーフレームを3つ生成することになる。   For example, it is assumed that the first encoding unit 505 encodes the first image in the first area and encodes the second image. At this time, when encoding the second image to be any image, the generation unit 507 inputs the first image to be the previous image to the first encoding unit 505 as the number of generations three times. As a result, the first encoding unit 505 generates three dummy frames.

また、生成部507は、ダミーフレームを、第1符号化部505が符号化する符号化フレーム群のうち複数の参照先を有する符号化フレームが連続して存在する数より1多い数分、生成してもよい。複数の参照先を有する符号化フレームは、Bピクチャである。たとえば、Bピクチャが連続して2枚設定される場合、生成部507は、ダミーフレームを3つ生成する。   In addition, the generation unit 507 generates dummy frames by a number one more than the number of encoded frames having a plurality of reference destinations in the encoded frame group encoded by the first encoding unit 505. May be. An encoded frame having a plurality of reference destinations is a B picture. For example, when two B pictures are set in succession, the generation unit 507 generates three dummy frames.

また、生成部507は、第2符号化部506がいずれかの画像を符号化する場合、いずれかの画像の前の画像の第2の領域に対するダミーフレームを、自符号化フレームで再生可能な特定の符号化フレームの出現間隔に含まれるフレーム数以下分生成する。たとえば、第2符号化部506が、第2の領域の1番目の画像を符号化しており、2番目の画像を符号化するとする。このとき、生成部507は、いずれかの画像となる1番目の画像を第2符号化部506に生成数として2回入力する。これにより、第2符号化部506がダミーフレームを2つ生成することになる。符号化装置101は、生成部507の動作により、フレーム遅延を起こすことができる。なお、生成されたフレームは、RAM303等の記憶領域に記憶される。   In addition, when the second encoding unit 506 encodes any image, the generation unit 507 can reproduce a dummy frame for the second area of the previous image of any image with the self-encoded frame. The number of frames included in the appearance interval of a specific encoded frame is generated. For example, it is assumed that the second encoding unit 506 encodes the first image in the second area and encodes the second image. At this time, the generation unit 507 inputs the first image, which is one of the images, to the second encoding unit 506 as the generation number twice. As a result, the second encoding unit 506 generates two dummy frames. The encoding apparatus 101 can cause a frame delay by the operation of the generation unit 507. The generated frame is stored in a storage area such as the RAM 303.

設定部508は、ダミーフレームを、参照先画像の第1の領域に対する符号化フレームの次の符号化フレームに設定する。たとえば、設定部508は、ダミーフレームを、第1の領域に対する先頭の符号化フレームの次に設定する。   The setting unit 508 sets the dummy frame as the next encoded frame after the encoded frame for the first region of the reference destination image. For example, the setting unit 508 sets a dummy frame next to the first encoded frame for the first region.

また、設定部508は、ダミーフレームを、参照先画像の第2の領域に対する符号化フレームの次の符号化フレームに設定してもよい。たとえば、設定部508は、特定の符号化フレームを、第2の領域に対する先頭の符号化フレームの次に設定する。符号化装置101は、設定部508の動作により、フレーム遅延を発生させる位置を設定することができる。   Further, the setting unit 508 may set the dummy frame as the next encoded frame of the encoded frame for the second region of the reference destination image. For example, the setting unit 508 sets a specific encoded frame next to the first encoded frame for the second region. The encoding apparatus 101 can set the position where the frame delay is generated by the operation of the setting unit 508.

出力部509は、第1または第2の領域の少なくともいずれか一方を示す識別情報124を対応する符号化フレームに付与して、第1および第2の領域に対する各符号化フレームを出力する。また、出力部509は、出力先として、識別情報124を検出して第1の領域に対する符号化フレームを復号する装置に出力する。識別情報124を検出して第1の領域に対する符号化フレームを復号する装置は、たとえば、復号装置400である。識別情報124は、第1の領域を示してもよいし、第2の領域を示してもよい。具体的に、H.264 MVCでは、後述するNALユニットタイプに、ベースビュー内の画像を符号化したフレームであるのか、または、拡張ビュー内の画像を符号化したフレームであるのかが設定されている。   The output unit 509 adds identification information 124 indicating at least one of the first and second regions to the corresponding encoded frame, and outputs the encoded frames for the first and second regions. Further, the output unit 509 detects the identification information 124 as an output destination and outputs it to a device that decodes the encoded frame for the first region. A device that detects the identification information 124 and decodes the encoded frame for the first region is, for example, the decoding device 400. The identification information 124 may indicate a first area or a second area. Specifically, H.M. In H.264 MVC, a NAL unit type, which will be described later, is set to be a frame obtained by encoding an image in a base view or a frame obtained by encoding an image in an extended view.

また、出力部509は、生成部507によって生成された特定の符号化フレームと特定の符号化フレームの生成数および設定位置を示す情報とを出力してもよい。設定位置を示す情報は、たとえば、特定の符号化フレームの先頭位置と数が示されていてもよいし、各符号化フレームの位置が示されていてもよい。また、出力部509は、自装置の角度に関する情報を出力してもよい。符号化装置101は、出力部509の動作により、符号化フレームを外部に出力することができる。なお、出力部509は、出力先として、記録メディア308、RAM303等といった記憶装置に出力結果を出力してもよいし、外部IF309を介して外部の装置に出力してもよい。   The output unit 509 may output the specific encoded frame generated by the generation unit 507 and information indicating the number of generated specific encoded frames and the set position. For example, the information indicating the set position may indicate the start position and the number of a specific encoded frame, or may indicate the position of each encoded frame. The output unit 509 may output information related to the angle of the own device. The encoding apparatus 101 can output the encoded frame to the outside by the operation of the output unit 509. The output unit 509 may output the output result to a storage device such as the recording medium 308 and the RAM 303 as an output destination, or may output to an external device via the external IF 309.

受付部521は、一連の画像のうち第1の領域内の一連の部分画像に対する一連の符号化フレームと、一連の画像のうち第1の領域に隣接する第2の領域内の一連の部分画像に対する一連の符号化フレームと、を受け付ける。さらに、受付部521は、第1または第2の領域内の一連の部分画像に対する一連の符号化フレームの少なくともいずれか一方に付与されたいずれか一方に対応する識別情報124を受け付ける。また、受付部521は、第1または第2の領域内の一連の部分画像に対する一連の符号化フレームのうち出力対象でない符号化フレームの数および位置を示す情報を受け付けてもよい。   The reception unit 521 includes a series of encoded frames for a series of partial images in the first area in the series of images, and a series of partial images in the second area adjacent to the first area in the series of images. A series of encoded frames. Furthermore, the reception unit 521 receives the identification information 124 corresponding to one of a series of encoded frames for a series of partial images in the first or second region. In addition, the reception unit 521 may receive information indicating the number and position of encoded frames that are not output targets among a series of encoded frames for a series of partial images in the first or second region.

また、受付部521は、一連の画像を受け付けた装置が一連の画像を受け付けたときの装置の角度に関する情報を受け付けてもよい。たとえば、受付部521は、画像を受け付けた装置が縦であったことを受け付ける。復号装置400は、受付部521の動作により、一連の符号化フレームの復号を行う契機を検出することができる。なお、受け付けた各情報は、RAM403等の記憶領域に記憶される。   The receiving unit 521 may receive information related to the angle of the device when the device that has received a series of images has received a series of images. For example, the accepting unit 521 accepts that the device that accepted the image is vertical. The decoding apparatus 400 can detect a trigger for decoding a series of encoded frames by the operation of the reception unit 521. Each received information is stored in a storage area such as the RAM 403.

選択部522は、第1および第2の領域内の一連の部分画像に対する一連の符号化フレームから、識別情報124に基づいて、第1の領域内の一連の部分画像に対する一連の符号化フレームを選択する。たとえば、識別情報124が第1の領域を示している場合、選択部522は、識別情報124が付与された一連の符号化フレームを選択する。また、識別情報124が第2の領域を示している場合、選択部522は、識別情報124が付与されていない一連の符号化フレームを選択する。復号装置400は、選択部522の動作により、復号対象をベースビューに限定できる。なお、選択された符号化フレームは、RAM403等の記憶領域に記憶される。   The selection unit 522 selects a series of encoded frames for the series of partial images in the first area from the series of encoded frames for the series of partial images in the first and second areas, based on the identification information 124. select. For example, when the identification information 124 indicates the first area, the selection unit 522 selects a series of encoded frames to which the identification information 124 is added. When the identification information 124 indicates the second area, the selection unit 522 selects a series of encoded frames to which the identification information 124 is not added. The decoding apparatus 400 can limit the decoding target to the base view by the operation of the selection unit 522. The selected encoded frame is stored in a storage area such as the RAM 403.

指定部523は、第1の領域と第2の領域とを結合した領域から表示領域を指定する。たとえば、指定部523は、ユーザによって、初期の表示領域から、右方向に移動した表示領域を指定する。復号装置400を操作するユーザは、撮影対象物aが映るように表示領域の操作をする。したがって、復号装置400は、指定部523の動作により、撮影対象物aの表示位置に合わせた復号処理を行うことができる。なお、指定された表示領域は、RAM403等の記憶領域に記憶される。   The designation unit 523 designates a display area from an area obtained by combining the first area and the second area. For example, the designation unit 523 designates a display area that is moved rightward from the initial display area by the user. The user who operates the decoding device 400 operates the display area so that the photographing object a is reflected. Therefore, the decoding device 400 can perform a decoding process in accordance with the display position of the shooting target object a by the operation of the specifying unit 523. Note that the designated display area is stored in a storage area such as the RAM 403.

変換部524は、指定された表示領域を角度に関する情報に応じて変換する。たとえば、角度に関する情報が縦を示し、表示領域が右方向に移動するように指定された場合、変換部524は、表示領域を下方向に移動するように変換する。復号装置400は、変換部524の動作により、撮影対象物aが撮影された状態と同じ画面の向きで復号画像を表示することができる。なお、変換された表示領域は、RAM403等の記憶領域に記憶される。   The conversion unit 524 converts the designated display area according to the information regarding the angle. For example, when the information regarding the angle indicates the vertical direction and the display area is designated to move in the right direction, the conversion unit 524 converts the display area so as to move in the downward direction. The decoding device 400 can display the decoded image with the same screen orientation as that in the state in which the shooting target object a is shot, by the operation of the conversion unit 524. Note that the converted display area is stored in a storage area such as the RAM 403.

復号部525は、選択部522によって選択された第1の領域に対する一連の符号化フレームを第1の領域内の一連の部分画像に復号する。たとえば、復号部525は、第1の領域に対する各フレームとして、Iピクチャ、Pピクチャ、Bピクチャを復号する。また、復号部525は、指定部523によって表示領域が指定された場合、第2の領域に対する一連の符号化フレームを第2の領域内の一連の部分画像に復号してもよい。復号装置400は、復号部525の動作により、一連の画像の動画像を再生することができる。なお、復号された画像は、RAM403等の記憶領域に記憶される。   The decoding unit 525 decodes a series of encoded frames for the first region selected by the selection unit 522 into a series of partial images in the first region. For example, the decoding unit 525 decodes an I picture, a P picture, and a B picture as each frame for the first region. Further, when the display area is designated by the designation unit 523, the decoding unit 525 may decode a series of encoded frames for the second area into a series of partial images in the second area. The decoding device 400 can reproduce a moving image of a series of images by the operation of the decoding unit 525. The decoded image is stored in a storage area such as the RAM 403.

抽出部526は、第1の領域内の一連の部分画像から表示領域内の第1の画像列を抽出するとともに、第2の領域内の一連の部分画像から表示領域内の第2の画像列を抽出する。画像列とは、複数の画像を時系列順に並べたデータである。たとえば、第1の画像列は、0番目の時刻における表示領域内の画像、1番目の時刻における表示領域内の画像、2番目の時刻における表示領域内の画像、というように時系列順に並べたデータとなる。   The extraction unit 526 extracts the first image sequence in the display area from the series of partial images in the first area, and extracts the second image sequence in the display area from the series of partial images in the second area. To extract. An image sequence is data in which a plurality of images are arranged in chronological order. For example, the first image sequence is arranged in chronological order, such as an image in the display area at the 0th time, an image in the display area at the first time, and an image in the display area at the second time. It becomes data.

また、抽出部526は、復号部525によって復号された第1の領域内の一連の部分画像のうち、出力対象でない符号化フレームに対応する部分画像以外の他の部分画像から表示領域内の第1の画像列を抽出する。なお、抽出部526は、出力対象でない符号化フレームの数および位置を示す情報に基づいて、抽出を行う。さらに、抽出部526は、第2の領域内の一連の部分画像から表示領域内の第2の画像列を抽出してもよい。   In addition, the extraction unit 526 extracts the first partial image in the display region from the partial images other than the partial image corresponding to the encoded frame that is not the output target among the series of partial images in the first region decoded by the decoding unit 525. One image sequence is extracted. Note that the extraction unit 526 performs extraction based on information indicating the number and position of encoded frames that are not output targets. Further, the extraction unit 526 may extract the second image sequence in the display area from the series of partial images in the second area.

たとえば、出力対象でない符号化フレームの数および位置を示す情報が、出力対象でない符号化フレームの先頭位置と数を示していたとする。このとき、抽出部526は、先頭位置に対応する符号化フレームおよび該当の符号化フレームから後続する符号化フレームの一つ前までの符号化フレームを出力対象でない符号化フレームとして、出力対象でない符号化フレーム以外に対して部分画像の抽出を行う。また、出力対象でない符号化フレームの数および位置を示す情報が、出力対象でない符号化フレームの各位置を示していたとする。このとき、抽出部526は、各位置に対応する符号化フレーム以外となる符号化フレームが復号された部分画像に対して抽出を行う。   For example, it is assumed that information indicating the number and position of encoded frames that are not output targets indicates the start position and number of encoded frames that are not output targets. At this time, the extraction unit 526 sets the encoded frame corresponding to the head position and the encoded frame from the corresponding encoded frame to the immediately preceding encoded frame as the encoded frame that is not the output target, and the code that is not the output target. Partial images are extracted from other than the frame. Further, it is assumed that information indicating the number and position of encoded frames that are not output targets indicates the positions of encoded frames that are not output targets. At this time, the extraction unit 526 performs extraction on a partial image obtained by decoding an encoded frame other than the encoded frame corresponding to each position.

たとえば、出力対象でない符号化フレームの数および位置を示す情報が、1〜3番目を示しており、復号部525が、第1の領域内の部分画像として、画像0〜画像4を復号した場合、抽出部526は、画像0と画像4から表示領域内の第1の画像列を抽出する。   For example, when the information indicating the number and position of encoded frames that are not output targets indicates the first to third, and the decoding unit 525 decodes images 0 to 4 as partial images in the first region. The extraction unit 526 extracts the first image sequence in the display area from the images 0 and 4.

また、抽出部526は、第1の領域内の一連の部分画像から変換部524による変換後の表示領域内の第1の画像列を抽出するとともに、第2の領域内の一連の部分画像から変換後の表示領域内の第2の画像列を抽出してもよい。復号装置400は、抽出部526の処理により、表示領域の範囲となる画像列を取得することができる。なお、抽出された画像列は、RAM403等の記憶領域に記憶される。   In addition, the extraction unit 526 extracts the first image sequence in the display area after conversion by the conversion unit 524 from the series of partial images in the first area, and from the series of partial images in the second area. You may extract the 2nd image sequence in the display area after conversion. The decoding device 400 can acquire an image sequence that is the range of the display area by the processing of the extraction unit 526. Note that the extracted image sequence is stored in a storage area such as the RAM 403.

結合部527は、抽出部526によって抽出された第1の画像列の各画像と、第2の画像列の各画像とを、一連の画像内の同一画像どうしで結合する。たとえば、結合部527は、第1の画像列のうち0番目と、第2の画像列のうち0番目と、を結合する。   The combining unit 527 combines each image of the first image sequence extracted by the extraction unit 526 and each image of the second image sequence with the same image in the series of images. For example, the combining unit 527 combines the 0th of the first image sequence and the 0th of the second image sequence.

また、結合部527は、出力対象でない符号化フレームの数および位置を示す情報に基づいて、第1の画像列の各画像のうち出力対象でない符号化フレームに対応する画像以外の他の画像と第2の画像列の各画像とを一連の画像内の同一画像どうしで結合してもよい。   In addition, the combining unit 527 selects other images other than the image corresponding to the encoded frame that is not the output target from among the images of the first image sequence based on the information indicating the number and position of the encoded frames that are not the output target. You may combine each image of a 2nd image sequence by the same image in a series of images.

たとえば、出力対象でない符号化フレームの数および位置を示す情報が、出力対象でない符号化フレームの先頭位置と数を示していたとする。このとき、結合部527は、先頭位置に対応する符号化フレームおよび該当の符号化フレームから後続する符号化フレームの一つ前までの符号化フレームに対応する画像以外の他の画像と、第2の画像列の各画像とを一連の画像内の同一画像同士で結合する。また、出力対象でない符号化フレームの数および位置を示す情報が、出力対象でない符号化フレームの各位置を示していたとする。このとき、結合部527は、各位置に対応する符号化フレーム以外となる符号化フレームに対応する画像以外の他の画像と、第2の画像列の各画像とを一連の画像内の同一画像同士で結合する。   For example, it is assumed that information indicating the number and position of encoded frames that are not output targets indicates the start position and number of encoded frames that are not output targets. At this time, the combining unit 527 includes an image other than the image corresponding to the encoded frame corresponding to the head position and the encoded frame from the corresponding encoded frame to the immediately preceding encoded frame, and the second Are combined with each other in the series of images. Further, it is assumed that information indicating the number and position of encoded frames that are not output targets indicates the positions of encoded frames that are not output targets. At this time, the combining unit 527 converts the image other than the image corresponding to the encoded frame other than the encoded frame corresponding to each position, and each image of the second image sequence into the same image in the series of images. Join each other.

復号装置400は、結合部527の動作により、表示領域に対応する動画像を再生することができる。なお、抽出された画像列は、RAM403等の記憶領域に記憶される。   The decoding device 400 can reproduce a moving image corresponding to the display area by the operation of the combining unit 527. Note that the extracted image sequence is stored in a storage area such as the RAM 403.

出力部528は、一連の復号画像のうち、出力対象でない符号化フレームの数および位置を示す情報に基づいて、出力対象でない符号化フレームに対応する復号画像以外の他の復号画像を出力する。たとえば、出力対象でない符号化フレームの数および位置を示す情報が、出力対象でない符号化フレームの先頭位置と数を示していたとする。   The output unit 528 outputs a decoded image other than the decoded image corresponding to the encoded frame that is not the output target based on the information indicating the number and position of the encoded frames that are not the output target in the series of decoded images. For example, it is assumed that information indicating the number and position of encoded frames that are not output targets indicates the start position and number of encoded frames that are not output targets.

このとき、出力部528は、先頭位置に対応する符号化フレームおよび該当の符号化フレームから後続する符号化フレームの一つ前までの符号化フレームを出力対象でない符号化フレームとして、出力対象でない符号化フレーム以外に対する復号画像を出力する。また、出力対象でない符号化フレームの数および位置を示す情報が、出力対象でない符号化フレームの各位置を示していたとする。このとき、出力部528は、各位置に対応する符号化フレーム以外となる符号化フレームが復号された復号画像を出力する。   At this time, the output unit 528 sets the encoded frame corresponding to the head position and the encoded frame from the corresponding encoded frame to the immediately preceding encoded frame as the encoded frame that is not the output target, and the code that is not the output target. A decoded image for other than the frame is output. Further, it is assumed that information indicating the number and position of encoded frames that are not output targets indicates the positions of encoded frames that are not output targets. At this time, the output unit 528 outputs a decoded image obtained by decoding an encoded frame other than the encoded frame corresponding to each position.

また、出力部528は、結合部527の結合により得られた表示領域の画像列を出力してもよいし、結合部527の結合により得られた変換後の表示領域の画像列を出力してもよい。符号化装置101は、出力部509の動作により、符号化フレームを外部に出力することができる。なお、出力部528は、出力先として、RAM403等といった記憶装置に出力結果を出力してもよいし、画像出力IF409を介してテレビ受信機等に出力してもよい。   Further, the output unit 528 may output the image sequence of the display area obtained by combining the combining unit 527, or output the image sequence of the display area after conversion obtained by combining the combining unit 527. Also good. The encoding apparatus 101 can output the encoded frame to the outside by the operation of the output unit 509. Note that the output unit 528 may output the output result to a storage device such as the RAM 403 as an output destination, or may output it to a television receiver or the like via the image output IF 409.

次に、入力画像111の抽出例について説明する。入力画像111の抽出方法として、本実施の形態では、横位置撮影時における抽出方法と、縦位置撮影時における抽出方法が存在する。図6にて、横位置撮影時の画面の抽出方法の一例を説明し、図7にて、縦位置撮影時の画面の抽出方法の一例を説明する。   Next, an example of extracting the input image 111 will be described. As the extraction method of the input image 111, in this embodiment, there are an extraction method at the time of horizontal position shooting and an extraction method at the time of vertical position shooting. FIG. 6 illustrates an example of a screen extraction method during horizontal position shooting, and FIG. 7 illustrates an example of a screen extraction method during vertical position shooting.

図6は、横位置撮影時の画面の抽出の一例を示す説明図である。図6中の(A)で示すように、符号化装置101は、入力画像111から、ユーザに指定されなかった場合の初期表示領域となるベースビュー内の画像bと拡張領域に含まれる拡張ビュー内の画像d_Lと画像d_Rを抽出する。なお、画像d_Lは、ベースビューの左側で隣接している画像であり、画像d_Rは、ベースビューの右側で隣接している画像である。   FIG. 6 is an explanatory diagram showing an example of screen extraction at the time of horizontal position shooting. As shown by (A) in FIG. 6, the encoding apparatus 101 reads from the input image 111 the image b in the base view that is the initial display area when not specified by the user and the extended view included in the extended area. The image d_L and the image d_R are extracted. Note that the image d_L is an image adjacent on the left side of the base view, and the image d_R is an image adjacent on the right side of the base view.

たとえば、符号化装置101は、ベースビュー内の画像bとして、入力画像111から、左上の座標が(1k、0.5k)となり、縦1k[画素]、横2k[画素]となる矩形画像を抽出する。また、符号化装置101は、拡張ビュー内の画像d_Lとして、左上の座標が(0、0.5k)となり、縦1k[画素]、横1k[画素]となる矩形画像を抽出する。さらに、符号化装置101は、拡張ビュー内の画像d_Rとして、左上の座標が(3k、0.5k)となり、縦1k[画素]、横1k[画素]となる矩形画像を抽出する。   For example, the encoding apparatus 101 converts a rectangular image having an upper left coordinate (1k, 0.5k), 1k [pixel], and 2k [pixel] from the input image 111 as the image b in the base view. Extract. Also, the encoding device 101 extracts a rectangular image whose upper left coordinates are (0, 0.5k) and whose vertical length is 1k [pixel] and horizontal 1k [pixel] as the image d_L in the extended view. Further, the encoding apparatus 101 extracts a rectangular image having an upper left coordinate (3k, 0.5k) and a vertical 1k [pixel] and a horizontal 1k [pixel] as the image d_R in the extended view.

符号化装置101は、このような抽出処理を、入力画像111ごとに行う。たとえば、図6中の(B)で示すように、符号化装置101は、時刻t0における入力画像111から、画像b0と、画像d0_Lと画像d0_Rとを結合した画像d0と、を抽出する。同様に、符号化装置101は、時刻t1における入力画像111から、画像b1と、画像d1_Lと画像d1_Rとを結合した画像d1と、を抽出する。また、符号化装置101は、時刻t2における入力画像111から、画像b2と、画像d2_Lと画像d2_Rとを結合した画像d2と、を抽出する。   The encoding apparatus 101 performs such extraction processing for each input image 111. For example, as indicated by (B) in FIG. 6, the encoding apparatus 101 extracts an image b0 and an image d0 obtained by combining the image d0_L and the image d0_R from the input image 111 at time t0. Similarly, the encoding apparatus 101 extracts an image b1 and an image d1 obtained by combining the image d1_L and the image d1_R from the input image 111 at time t1. Also, the encoding apparatus 101 extracts the image b2 and the image d2 obtained by combining the image d2_L and the image d2_R from the input image 111 at time t2.

図7は、縦位置撮影時の画面の抽出方法の一例を示す説明図である。縦位置撮影が行われている場合、符号化装置101は、入力画像111が図7中の(A)で示す抽出イメージのように抽出される。具体的に、入力画像111が、縦2k[画素]、横4k[画素]となっており、ユーザに指定されなかった場合の初期表示領域となるベースビュー内の画像bと拡張領域に含まれる拡張ビュー内の画像d_Lと画像d_Rを抽出する。   FIG. 7 is an explanatory diagram illustrating an example of a screen extraction method during vertical position shooting. When vertical position shooting is performed, the encoding apparatus 101 extracts the input image 111 as an extraction image indicated by (A) in FIG. Specifically, the input image 111 has a length of 2k [pixels] and a width of 4k [pixels], and is included in the image b in the base view and the extended region as an initial display region when not specified by the user. The image d_L and the image d_R in the extended view are extracted.

図7中の(A)で示されたように抽出するため、符号化装置101は、図7中の(B)で示すように入力画像111を抽出する。具体的には、ベースビュー内の画像bとして、入力画像111から、左上の座標が(1k、0.5k)となり、縦1k[画素]、横2k[画素]となる矩形画像を抽出する。また、符号化装置101は、拡張ビュー内の画像d_Lとして、左上の座標が(1k、0)となり、縦0.5k[画素]、横2k[画素]となる矩形画像を抽出する。さらに、符号化装置101は、拡張ビュー内の画像d_Rとして、左上の座標が(1k、1.5k)となり、縦0.5k[画素]、横2k[画素]となる矩形画像を抽出する。   In order to extract as indicated by (A) in FIG. 7, the encoding apparatus 101 extracts the input image 111 as indicated by (B) in FIG. Specifically, as the image b in the base view, a rectangular image whose upper left coordinates are (1k, 0.5k) and whose vertical length is 1k [pixel] and horizontal 2k [pixel] is extracted from the input image 111. Also, the encoding apparatus 101 extracts a rectangular image whose upper left coordinates are (1k, 0) and whose vertical length is 0.5k [pixel] and horizontal 2k [pixel] as the image d_L in the extended view. Furthermore, the encoding apparatus 101 extracts a rectangular image whose upper left coordinates are (1k, 1.5k) and whose vertical length is 0.5k [pixel] and horizontal 2k [pixel] as the image d_R in the extended view.

符号化装置101は、このような抽出処理を、入力画像111ごとに行う。図7中の(C)で示す時刻t0〜時刻t2までの抽出方法は、図6の(B)と同一であるため、説明を省略する。以下、とくに記述がない場合、横位置撮影時における抽出方法を行った例にて説明を行う。   The encoding apparatus 101 performs such extraction processing for each input image 111. The extraction method from time t0 to time t2 indicated by (C) in FIG. 7 is the same as that in FIG. Hereinafter, when there is no description in particular, the description will be made with an example of performing an extraction method at the time of horizontal position photographing.

なお、図6で示したように横位置で撮影されたか、または図7で示したように縦位置で撮影されたかについては、縦横情報として記録される。縦横情報については、図11にて後述する。   Note that whether the image was taken in the horizontal position as shown in FIG. 6 or the image was taken in the vertical position as shown in FIG. 7 is recorded as vertical / horizontal information. The vertical / horizontal information will be described later with reference to FIG.

図8は、動き補償の参照方向の一例を示す説明図である。図8中の(A)では、入力画像111にて物体(1)と物体(2)が移動する様を示しており、図8中の(B)では、動きベクトルの参照方向を示している。   FIG. 8 is an explanatory diagram illustrating an example of a reference direction for motion compensation. (A) in FIG. 8 shows that the objects (1) and (2) move in the input image 111, and (B) in FIG. 8 shows the reference direction of the motion vector. .

物体(1)は、時刻t0、時刻t1ともに拡張ビュー内の画像d0、画像d1に存在する。画像d1を符号化する場合、符号化装置101は、表201で示したように、画像d0を参照できるため、物体(1)に関して符号化効率が向上する。   The object (1) exists in the image d0 and the image d1 in the extended view at both time t0 and time t1. When the image d1 is encoded, the encoding device 101 can refer to the image d0 as shown in Table 201, so that the encoding efficiency for the object (1) is improved.

物体(2)は、時刻t0にてベースビュー内の画像b0に存在し、時刻t1にて拡張ビュー内の画像d1に存在する。画像d1を符号化する場合、符号化装置101は、表201で示したように、画像b0を参照できないため、物体(2)に関して符号化効率が悪化する。   The object (2) exists in the image b0 in the base view at time t0, and exists in the image d1 in the extended view at time t1. When the image d1 is encoded, the encoding device 101 cannot refer to the image b0 as shown in Table 201, and thus the encoding efficiency of the object (2) is deteriorated.

このように、異なるビュー間の移動が発生する場合に、符号化効率が悪化する。したがって本実施の形態では、ダミーフレームを挿入することで、ベースビューと拡張ビューの画像を同一時刻にして、参照できるようにし、符号化効率の向上を図っている。図9にてダミーフレームを設定した場合について説明する。   As described above, when the movement between different views occurs, the encoding efficiency deteriorates. Therefore, in this embodiment, by inserting a dummy frame, the images of the base view and the extended view can be referred to at the same time, thereby improving the coding efficiency. A case where a dummy frame is set will be described with reference to FIG.

図9は、ダミーフレームを設定した場合の参照先の一例を示す説明図である。図9中の(A)では、図8で示した物体(2)のように、ベースビュー内の画像bから拡張ビュー内の画像d_Rに移動する例を示している。   FIG. 9 is an explanatory diagram illustrating an example of a reference destination when a dummy frame is set. (A) in FIG. 9 shows an example of moving from the image b in the base view to the image d_R in the extended view, like the object (2) shown in FIG.

次に、図9中の(B)では、ダミーフレームを設定していない状態の、ベースビュー内の符号化フレーム群と、拡張ビュー内の符号化フレーム群を示している。具体的に、図9中の(B)では、時刻t0のベースビューに対する符号化フレームfb0、拡張ビューに対する符号化フレームfd0、時刻t1のベースビューに対する符号化フレームfb1、拡張ビューに対する符号化フレームfd1がある。さらに、時刻t2のベースビューに対する符号化フレームfb2、拡張ビューに対する符号化フレームfd2、時刻t3のベースビューに対する符号化フレームfb3、拡張ビューに対する符号化フレームfd3がある。   Next, (B) in FIG. 9 shows an encoded frame group in the base view and an encoded frame group in the extended view in a state where no dummy frame is set. Specifically, in (B) of FIG. 9, the encoded frame fb0 for the base view at time t0, the encoded frame fd0 for the extended view, the encoded frame fb1 for the base view at time t1, and the encoded frame fd1 for the extended view. There is. Furthermore, there are an encoded frame fb2 for the base view at time t2, an encoded frame fd2 for the extended view, an encoded frame fb3 for the base view at time t3, and an encoded frame fd3 for the extended view.

また、符号化フレームfb0はIピクチャであり、符号化フレームfb3、fd0、fd3はPピクチャであり、符号化フレームfb1、fb2、fd1、fd2はBピクチャである。   The encoded frame fb0 is an I picture, the encoded frames fb3, fd0, and fd3 are P pictures, and the encoded frames fb1, fb2, fd1, and fd2 are B pictures.

このとき、符号化フレームfd1〜符号化フレームfd3は、符号化フレームfb0と同一時刻にはならないため、符号化装置101が符号化フレームfd1〜符号化フレームfd3を符号化する場合、参照不可であり、符号化効率が悪化する。   At this time, since the encoded frame fd1 to the encoded frame fd3 are not at the same time as the encoded frame fb0, when the encoding apparatus 101 encodes the encoded frame fd1 to the encoded frame fd3, reference is impossible. The encoding efficiency deteriorates.

次に、図9中の(C)では、符号化フレームfb0の次に、ダミーフレームとなる符号化フレームfb1_d、fb2_d、fb3_dを設定している。ダミーフレームの実体は、たとえばスキップマクロブロックの集合である。スキップマクロブロックは、参照元の画像が参照先の画像と同一となることを示すマクロブロックである。また、符号化フレームfb0の後続であった符号化フレームfb1〜fb3は、それぞれ、時刻t4における符号化フレームfb4_1、時刻t5における符号化フレームfb5_2、時刻t6における符号化フレームfb6_3となる。   Next, in (C) of FIG. 9, encoded frames fb1_d, fb2_d, and fb3_d that are dummy frames are set after the encoded frame fb0. The entity of the dummy frame is a set of skip macroblocks, for example. The skip macroblock is a macroblock indicating that the reference source image is the same as the reference destination image. Also, the encoded frames fb1 to fb3 subsequent to the encoded frame fb0 are an encoded frame fb4_1 at time t4, an encoded frame fb5_2 at time t5, and an encoded frame fb6_3 at time t6, respectively.

このとき、符号化フレームfd3は、符号化フレームfb3_dと同一時刻である。したがって、符号化装置101は、符号化フレームfd3を符号化する場合、符号化フレームfb3_dを参照でき、符号化効率が向上する。次に、図10にて、ストリーム121内におけるダミーフレームの設定例を説明する。   At this time, the encoded frame fd3 is at the same time as the encoded frame fb3_d. Therefore, when encoding the encoded frame fd3, the encoding device 101 can refer to the encoded frame fb3_d, and the encoding efficiency is improved. Next, a setting example of dummy frames in the stream 121 will be described with reference to FIG.

図10は、ストリーム内におけるダミーフレームの設定例である。図10中(A)、図10中(B)では、実線の矢印が参照先のフレームを示しており、点線で結ばれた画像どうしが同一の入力画像111から抽出されたことを示している。   FIG. 10 shows an example of setting dummy frames in a stream. In FIG. 10A and FIG. 10B, solid arrows indicate reference frames, indicating that the images connected by dotted lines are extracted from the same input image 111. .

図10中の(A)にて、符号化装置101は、ベースビューに対する符号化フレームにて、(1)で示す時刻t0のIピクチャを用いたダミーフレームとして(2)で示す時刻t1〜時刻t3のPピクチャ、Bピクチャを設定する。また、符号化装置101は、拡張ビューに対する符号化フレームにて、(3)で示す時刻tnのPピクチャを用いたダミーフレームとして(4)で示す時刻tn+1〜時刻tn+3におけるPピクチャ、Bピクチャを設定する。   In (A) of FIG. 10, the encoding apparatus 101 performs a dummy frame using the I picture at the time t0 indicated by (1) in the encoded frame for the base view, from time t1 to time indicated by (2). A P picture and a B picture at t3 are set. Also, the encoding apparatus 101 uses the P frame and the B picture at time tn + 1 to time tn + 3 indicated by (4) as dummy frames using the P picture at time tn indicated by (3) in the encoded frame for the extended view. Set.

このように、図10中の(A)では符号化装置101は、拡張ビューに対する符号化フレームにて、ベースビューに対する符号化フレームに設定したダミーフレームと同数のダミーフレームを設定している。これにより、拡張ビューに対する符号化フレームとベースビューに対する符号化フレームのフレーム数が同数となる。たとえば、復号装置400が拡張ビューに対する符号化フレームとベースビューに対する符号化フレームのフレームが同数となるかチェックしている場合、符号化装置101はフレーム数を同数にして、チェックを通過できるストリーム121を生成できる。   As described above, in FIG. 10A, the encoding apparatus 101 sets the same number of dummy frames as the encoded frames for the base view in the encoded frames for the extended view. As a result, the number of encoded frames for the extended view and the number of encoded frames for the base view are the same. For example, when the decoding apparatus 400 checks whether the number of encoded frames for the extended view and the number of encoded frames for the base view are the same, the encoding apparatus 101 sets the number of frames to be the same and the stream 121 that can pass the check. Can be generated.

また、図10中の(A)では、拡張ビューに対する符号化フレームが、ベースビューの過去方向に参照可能とするため、ベースビューにダミーフレームを設定している。拡張ビューに対する符号化フレームが、ベースビューの未来方向に参照可能にするには、拡張ビューにダミーフレームを設定してもよい。拡張ビューにダミーフレームを設定した例を図10中の(B)で示す。   In FIG. 10A, a dummy frame is set in the base view so that the encoded frame for the extended view can be referred to in the past direction of the base view. In order to allow the encoded frame for the extended view to be referenced in the future direction of the base view, a dummy frame may be set in the extended view. An example in which a dummy frame is set in the extended view is shown in FIG.

図10中の(B)にて、符号化装置101は、拡張ビューに対する符号化フレームにて、(5)で示す時刻t0のPピクチャを用いたダミーフレームとして(6)で示す時刻t1、時刻t2におけるBピクチャを設定する。また、符号化装置101は、ベースビューに対する符号化フレームにて、時刻tmにて(7)で示すPピクチャを用いたダミーフレームとして(8)で示す時刻tm+1、時刻tm+2におけるBピクチャを設定する。なお、ダミーフレームが設定された位置と数は、ダミーフレーム情報として記録される。ダミーフレーム情報は、図11にて後述する。   In (B) of FIG. 10, the encoding apparatus 101 sets the time t1 and time indicated by (6) as a dummy frame using the P picture at time t0 indicated by (5) in the encoded frame for the extended view. A B picture at t2 is set. Also, the encoding apparatus 101 sets B pictures at time tm + 1 and time tm + 2 indicated by (8) as dummy frames using the P picture indicated by (7) at time tm in the encoded frame for the base view. . The position and number where the dummy frame is set are recorded as dummy frame information. The dummy frame information will be described later with reference to FIG.

図11は、縦横情報とダミーフレーム情報の設定例を示す説明図である。図11では、縦横情報とダミーフレーム情報がストリーム121に設定されている例を示している。符号化装置101は、User data unregistered SEI(Supplemental Enhancement Information)メッセージ1101をストリーム121内に設定する。User data unregistered SEIメッセージ1101を、以下、単にSEIメッセージ1101と称す。SEIメッセージ1101は、NAL(Network Abstraction Layer)ユニットの一つであり、ユーザ独自の定義が可能なSEIメッセージである。   FIG. 11 is an explanatory diagram showing a setting example of vertical / horizontal information and dummy frame information. FIG. 11 shows an example in which vertical / horizontal information and dummy frame information are set in the stream 121. The encoding apparatus 101 sets a User data unregistered SEI (Supplemental Enhancement Information) message 1101 in the stream 121. The User data unregistered SEI message 1101 is hereinafter simply referred to as an SEI message 1101. The SEI message 1101 is one of NAL (Network Abstraction Layer) units and is a SEI message that can be defined by the user.

SEIメッセージ1101は、NALヘッダフィールド1111とRBSPフィールド(Raw Byte Sequence Payload)1112を含む。NALヘッダフィールド1111は、NALユニットの種別等が格納されている。RBSPフィールド1112は、NALユニットのペイロード部分である。   The SEI message 1101 includes a NAL header field 1111 and an RBSP field (Raw Byte Sequence Payload) 1112. The NAL header field 1111 stores the NAL unit type and the like. The RBSP field 1112 is a payload portion of the NAL unit.

RBSPフィールド1112は、payload_typeフィールド1121、payload_sizeフィールド1122、uuid_iso_iec_11578フィールド1123、user_data_payload_byteフィールド1124を含む。payload_typeフィールド1121は、RBSPフィールド1112に格納される種別が格納され、たとえば、user_data_unregisteredを示す5が格納されている。payload_sizeフィールド1122は、SEIメッセージ1101のサイズが格納される。uuid_iso_iec_11578フィールド1123は、一意に識別できる識別情報が格納される。   The RBSP field 1112 includes a payload_type field 1121, a payload_size field 1122, a uuid_iso_iec_11578 field 1123, and a user_data_payload_byte field 1124. The payload_type field 1121 stores the type stored in the RBSP field 1112, for example, 5 indicating user_data_unregistered. The payload_size field 1122 stores the size of the SEI message 1101. The uuid_iso_iec_11578 field 1123 stores identification information that can be uniquely identified.

user_data_payload_byteフィールド1124は、ユーザ独自の値を格納する。本実施の形態では、user_data_payload_byteフィールド1124は、縦横情報フィールド1131とダミーフレーム情報フィールド1132とを含む。たとえば、図11では、縦横情報フィールド1131には横を示す識別子が格納されており、ダミーフレーム情報フィールド1132には、フレーム数として3が格納されている。   The user_data_payload_byte field 1124 stores a value unique to the user. In the present embodiment, the user_data_payload_byte field 1124 includes a vertical / horizontal information field 1131 and a dummy frame information field 1132. For example, in FIG. 11, the vertical and horizontal information field 1131 stores an identifier indicating horizontal, and the dummy frame information field 1132 stores 3 as the number of frames.

なお、ダミーフレームが設定された位置として、たとえば、SEIメッセージ1101が、ダミーフレームの前に設定されてもよい。この場合、SEIメッセージ1101の設定位置が、ダミーフレームが設定された位置を示すことになる。たとえば、図10中の(A)で示したストリーム121では、時刻t1におけるベースビューに対する符号化フレームの前と、時刻tn+1における拡張ビューに対する符号化フレームの前に、SEIメッセージ1101が設定される。   As a position where the dummy frame is set, for example, the SEI message 1101 may be set before the dummy frame. In this case, the set position of the SEI message 1101 indicates the position where the dummy frame is set. For example, in the stream 121 shown by (A) in FIG. 10, the SEI message 1101 is set before the encoded frame for the base view at time t1 and before the encoded frame for the extended view at time tn + 1.

また、図11では、ストリーム121内に縦横情報とダミーフレーム情報を設定していたが、符号化装置101は、ストリーム121に対応付けられたファイルに縦横情報とダミーフレーム情報を書き込んでもよい。   In FIG. 11, vertical and horizontal information and dummy frame information are set in the stream 121, but the encoding apparatus 101 may write vertical and horizontal information and dummy frame information in a file associated with the stream 121.

図12は、符号化処理の一例を示す説明図である。符号化処理は、符号化装置101が実行する。符号化装置101内の画像処理部310は、4k2kの入力画像111を受け付けて、縦横情報を用いて入力画像抽出処理を実行し、ベースビュー内の画像と拡張ビュー内の画像とを出力する。続けて、MVC符号化復号処理部311は、縦横情報と、ベースビュー内の画像と、拡張ビュー内の画像とから、MVC符号化処理を実行し、ベースビューに対する符号化フレーム122と拡張ビュー内に対する符号化フレーム123をストリーム121に出力する。MVC符号化処理内にて、MVC符号化復号処理部311は、動きベクトル探索範囲決定処理を実行する。図13A、図13B、図14A、図14Bにて、動きベクトル探索範囲の一例を示す。   FIG. 12 is an explanatory diagram illustrating an example of the encoding process. The encoding apparatus 101 executes the encoding process. The image processing unit 310 in the encoding apparatus 101 receives a 4k2k input image 111, executes input image extraction processing using vertical and horizontal information, and outputs an image in the base view and an image in the extended view. Subsequently, the MVC encoding / decoding processing unit 311 performs MVC encoding processing from the aspect information, the image in the base view, and the image in the extended view, and the encoded frame 122 and the extended view in the base view Is output to the stream 121. Within the MVC encoding process, the MVC encoding / decoding processing unit 311 executes a motion vector search range determination process. An example of the motion vector search range is shown in FIGS. 13A, 13B, 14A, and 14B.

図13Aと、図13Bは、横位置撮影時の動きベクトル探索範囲の一例を示す説明図である。図13A中の(A)にて、MVC符号化復号処理部311は、各マクロブロックの動きベクトル探索範囲を、カレントマクロブロックを中心とした一定範囲に設定する。以下、マクロブロックをMBと称する。   13A and 13B are explanatory diagrams illustrating an example of a motion vector search range at the time of horizontal position shooting. In (A) of FIG. 13A, the MVC encoding / decoding processing unit 311 sets the motion vector search range of each macroblock to a certain range centered on the current macroblock. Hereinafter, the macroblock is referred to as MB.

各MBにおける動きベクトル探索範囲は、画面内のMB位置によって異なるため、以下に示すパラメタを元に探索範囲を決定する。初めに、カレントMBを中心として、動きベクトル探索範囲の左端までの画素数をlx、上端までの画素数をuy、右端までの画素数をrx、下端までの画素数をdyとする。たとえば、lx=uy=rx=dy=16とする。   Since the motion vector search range in each MB differs depending on the MB position in the screen, the search range is determined based on the following parameters. First, with the current MB as the center, the number of pixels to the left end of the motion vector search range is lx, the number of pixels to the upper end is uy, the number of pixels to the right end is rx, and the number of pixels to the lower end is dy. For example, lx = uy = rx = dy = 16.

また、図13A中の(B)で示すように、mbnumxを、ベースビューおよび拡張ビューの水平画素数/16とし、mbnumyを、ベースビューおよび拡張ビューの垂直画素数/16とする。また、mbadrxを、カレントMBのMBアドレスxとする。mbadrxは、画面内におけるMB単位での水平位置を示す。さらに、mbadryを、カレントMBのMBアドレスyとする。mbadryは、画面内におけるMB単位での垂直位置を示す。   13A, mbnumx is the number of horizontal pixels / 16 of the base view and the extended view, and mbnumy is the number of vertical pixels / 16 of the base view and the extended view. Also, let mbadrx be the MB address x of the current MB. mbadrx indicates the horizontal position in MB units in the screen. Further, let mbadry be the MB address y of the current MB. mbadry indicates the vertical position in MB units in the screen.

たとえば、ベースビュー内の画像と、拡張ビュー内の画像が、それぞれ、1920x1088画素の場合、mbnumxは1920/16 = 120、mbnumyは1088/16 = 68 となる。mbadrxの取りうる範囲は0〜119となり、mbadryの取りうる範囲は0〜67となる。また、拡張ビュー内の画像について、mbadrxが0〜59である場合、カレントMBは画像d_Lにあり、mbadrxが60〜119である場合、カレントMBは画像d_Rにある。   For example, if the image in the base view and the image in the extended view are 1920 × 1088 pixels, mbnumx is 1920/16 = 120, and mbnumy is 1088/16 = 68. The range that mbadrx can take is 0 to 119, and the range that mbadry can take is 0 to 67. Also, for images in the extended view, when mbadrx is 0 to 59, the current MB is in the image d_L, and when mbadrx is 60 to 119, the current MB is in the image d_R.

次に、図13Bにて、図13B中の(A)は、各MBの位置に応じたベクトル探索範囲の具体例を示している。MB_a〜MB_iについて、MB_a〜MB_cは、ベースビュー内のMBであり、MB_d〜MB_iについて、拡張ビュー内のMBである。   Next, in FIG. 13B, (A) in FIG. 13B shows a specific example of a vector search range corresponding to the position of each MB. For MB_a to MB_i, MB_a to MB_c are MBs in the base view, and for MB_d to MB_i, they are MBs in the extended view.

MB_aの動きベクトル探索範囲は、MB_aが画像bの左端に存在しており、拡張ビュー内の画像d_Lは参照できないため、lxが0となる。MB_bの動きベクトル探索範囲は、MB_bが画像bの内側に存在しているため、lx=uy=rx=dy=16のままとなる。MB_cの動きベクトル探索範囲は、MB_cが画像bの右端に存在しており、拡張ビュー内の画像d_Rを参照できないため、rxが0となる。   In the motion vector search range of MB_a, since MB_a exists at the left end of the image b and the image d_L in the extended view cannot be referred to, lx becomes 0. The motion vector search range of MB_b remains lx = uy = rx = dy = 16 because MB_b exists inside the image b. In the motion vector search range of MB_c, rx is 0 because MB_c exists at the right end of the image b and the image d_R in the extended view cannot be referred to.

MB_dの動きベクトル探索範囲は、MB_dが画像d_L内の上端に存在しており、uyが0となる。MB_eの動きベクトル探索範囲は、MB_eが画像d_Lの内側に存在しているため、lx=uy=rx=dy=16のままとなる。   In the motion vector search range of MB_d, MB_d exists at the upper end in the image d_L, and uy is 0. The motion vector search range of MB_e remains lx = uy = rx = dy = 16 because MB_e exists inside the image d_L.

MB_fの動きベクトル探索範囲は、MB_fが画像d_L内の右端に存在しており、同一時刻のベースビュー内の画像bを参照できるため、rxが0とならず、16のままとなる。また、図13B中の(B)で示す、領域(R)に対応する画像bへのベクトル探索範囲は、画像d_Lのベクトル探索範囲から変換することになる。ベースビュー、および拡張ビューの水平画像画素数をpicsizex、垂直画像サイズをpicsizeyとし、変換前の参照画素の座標をpx、py、変換後の参照画素の座標をox、oyとすると、以下のように求められる。   In the motion vector search range of MB_f, since MB_f exists at the right end in the image d_L and the image b in the base view at the same time can be referred to, rx does not become 0 but remains 16. Further, the vector search range to the image b corresponding to the region (R) shown by (B) in FIG. 13B is converted from the vector search range of the image d_L. Assuming that the number of horizontal image pixels of the base view and the extended view is picsize, the vertical image size is picsize, the coordinates of the reference pixels before conversion are px, py, and the coordinates of the reference pixels after conversion are ox, oy, as follows: Is required.

ox = px − picsizex/2
oy = py
ox = px-picsizeex / 2
oy = py

MB_gの動きベクトル探索範囲は、MB_gが画像d_R内の左端に存在しており、同一時刻のベースビュー内の画像bを参照できるため、lxが0とならず、16のままとなる。また、図13B中の(B)で示す、領域(L)に対応する画像bへのベクトル探索範囲は、画像d_Rのベクトル探索範囲から変換することになり、以下のように求められる。   In the motion vector search range of MB_g, since MB_g exists at the left end in the image d_R and the image b in the base view at the same time can be referred to, lx does not become 0 but remains 16. Further, the vector search range to the image b corresponding to the region (L) shown by (B) in FIG. 13B is converted from the vector search range of the image d_R, and is obtained as follows.

ox = px + picsizex/2
oy = py
ox = px + picsizeex / 2
oy = py

MB_hの動きベクトル探索範囲は、MB_hが画像d_Rの内側に存在しているため、lx=uy=rx=dy=16のままとなる。MB_iの動きベクトル探索範囲は、MB_iが画像d_Rの右下に存在しているため、rxとdyが0となる。   The motion vector search range of MB_h remains lx = uy = rx = dy = 16 because MB_h exists inside the image d_R. In the motion vector search range of MB_i, rx and dy are 0 because MB_i exists at the lower right of the image d_R.

図14Aと、図14Bは、縦位置撮影時の動きベクトル探索範囲の一例を示す説明図である。図14A中の(A)で示すMBのベクトル探索範囲は、図13Aの(A)で示した横位置撮影時と同一であるため、説明を省略する。   14A and 14B are explanatory diagrams illustrating an example of a motion vector search range during vertical position shooting. The vector search range of MB shown in (A) in FIG. 14A is the same as that at the time of horizontal position shooting shown in (A) of FIG.

また、図14A中の(B)で示す、mbnumx、mbnumy、mbadrx、mbadryの定義については、図13A中の(B)で示した定義と同一であるため、説明を省略する。また、拡張ビュー内の画像について、mbadryが0〜33である場合、カレントMBは画像d_Lにあり、mbadryが34〜67である場合、カレントMBは画像d_Rにある。   The definition of mbnumx, mbnumy, mbadrx, and mbadry shown by (B) in FIG. 14A is the same as the definition shown by (B) in FIG. Also, for images in the extended view, when mbadry is 0 to 33, the current MB is in the image d_L, and when mbadry is 34 to 67, the current MB is in the image d_R.

次に、図14Bにて、各MBの位置に応じたベクトル探索範囲の具体例を示している。MB_a〜MB_iについて、MB_a〜MB_cは、ベースビュー内のMBであり、MB_d〜MB_iについて、拡張ビュー内のMBである。   Next, FIG. 14B shows a specific example of a vector search range corresponding to the position of each MB. For MB_a to MB_i, MB_a to MB_c are MBs in the base view, and for MB_d to MB_i, they are MBs in the extended view.

MB_aの動きベクトル探索範囲は、MB_aが画像bの上端に存在しており、拡張ビュー内の画像d_Lを参照できないため、uyが0となる。MB_bの動きベクトル探索範囲は、MB_bが画像bの内側に存在しているため、lx=uy=rx=dy=16のままとなる。MB_cの動きベクトル探索範囲は、MB_cが画像bの下端に存在しており、拡張ビュー内の画像d_Rを参照できないため、dyが0となる。   In the motion vector search range of MB_a, uy is 0 because MB_a exists at the upper end of the image b and the image d_L in the extended view cannot be referred to. The motion vector search range of MB_b remains lx = uy = rx = dy = 16 because MB_b exists inside the image b. In the motion vector search range of MB_c, dy is 0 because MB_c exists at the lower end of the image b and the image d_R in the extended view cannot be referred to.

MB_dの動きベクトル探索範囲は、MB_dが画像d_Lの上端に存在しており、uyが0となる。MB_eの動きベクトル探索範囲は、MB_eがベースビューの内側に存在しているため、lx=uy=rx=dy=16のままとなる。   In the motion vector search range of MB_d, MB_d exists at the upper end of the image d_L, and uy is 0. The motion vector search range of MB_e remains lx = uy = rx = dy = 16 because MB_e exists inside the base view.

MB_fの動きベクトル探索範囲は、MB_fが画像d_L内の下端に存在しており、同一時刻のベースビュー内の画像bを参照できるため、dyが0とならず、16のままとなる。また、図14B中の(B)で示す、領域(D)に対応する画像bへのベクトル探索範囲は、画像d_Lのベクトル探索範囲から変換することになり、以下のように求められる。   In the motion vector search range of MB_f, since MB_f exists at the lower end in the image d_L and the image b in the base view at the same time can be referred to, dy does not become 0 but remains 16. Further, the vector search range to the image b corresponding to the region (D) shown by (B) in FIG. 14B is converted from the vector search range of the image d_L, and is obtained as follows.

ox = px
oy = py − picsizey/2
ox = px
oy = py-picsize / 2

MB_gの動きベクトル探索範囲は、MB_gが画像d_R内の上端に存在しており、同一時刻のベースビュー内の画像bを参照できるため、uyが0とならず、16のままとなる。また、図14B中の(B)で示す、領域(U)に対応する画像bへのベクトル探索範囲は、画像d_Rのベクトル探索範囲から変換することになり、以下のように求められる。   In the motion vector search range of MB_g, since MB_g exists at the upper end in the image d_R and the image b in the base view at the same time can be referred to, uy does not become 0 but remains 16. Further, the vector search range to the image b corresponding to the region (U) shown by (B) in FIG. 14B is converted from the vector search range of the image d_R, and is obtained as follows.

ox = px
oy = py + picsizey/2
ox = px
oy = py + picsize / 2

MB_hの動きベクトル探索範囲は、MB_hが画像d_Rの内側に存在しているため、lx=uy=rx=dy=16のままとなる。MB_iの動きベクトル探索範囲は、MB_iが画像d_Rの右下に存在しているため、rxとdyが0となる。   The motion vector search range of MB_h remains lx = uy = rx = dy = 16 because MB_h exists inside the image d_R. In the motion vector search range of MB_i, rx and dy are 0 because MB_i exists at the lower right of the image d_R.

図15は、復号処理の一例を示す説明図である。復号処理は、符号化装置101と、復号装置400が実行可能である。図15の説明においては、復号装置400が復号処理を実行する場合について説明する。   FIG. 15 is an explanatory diagram showing an example of the decoding process. The decoding process can be executed by the encoding apparatus 101 and the decoding apparatus 400. In the description of FIG. 15, a case where the decoding device 400 executes a decoding process will be described.

復号装置400内のMVC復号処理部408は、ストリーム121を受け付けて、MVC復号処理を実行して、2k1kのベースビュー内の一連の画像と、2k1kの拡張ビュー内の一連の画像を出力する。続けて、画像処理部407は、縦横情報と、2k1kのベースビュー内の一連の画像と、2k1kの拡張ビュー内の一連の画像と、指定された表示領域と、から、出力画像結合処理を実行し、2k1kの出力画像を出力する。次に、図16A〜図16Cにて、出力画像結合処理の具体例を示す。   The MVC decoding processing unit 408 in the decoding device 400 receives the stream 121, executes the MVC decoding process, and outputs a series of images in the 2k1k base view and a series of images in the 2k1k extended view. Subsequently, the image processing unit 407 executes output image combination processing from the aspect information, the series of images in the 2k1k base view, the series of images in the 2k1k extended view, and the designated display area. And a 2k1k output image is output. Next, a specific example of the output image combining process is shown in FIGS. 16A to 16C.

図16Aは、出力画像結合処理の具体例を示す説明図(その1)である。図16A中の(A)では、撮影対象物aがベースビュー内から一部移動し、拡張ビューに入った状態を示している。図16Aでは、復号装置400を操作するユーザによって表示領域が数画素右に移動するように指定された場合について説明する。   FIG. 16A is an explanatory diagram (part 1) illustrating a specific example of output image combining processing. (A) in FIG. 16A shows a state in which the subject a is partially moved from the base view and enters the extended view. FIG. 16A illustrates a case where the user operating the decoding device 400 has designated the display area to move to the right by several pixels.

図16A中の(B)では、初めに、ベースビューに対する一連の符号化フレームを、ベースビュー内の一連の部分画像を復号した状態を示している。具体的に、復号装置400は、ベースビューに対する一連の符号化フレームを、ベースビュー内の一連の部分画像dec_b0〜dec_b4に復号する。また、復号装置400は、拡張ビューに対する一連の符号化フレームを、拡張ビュー内の一連の部分画像dec_d0〜dec_d4に復号する。この状態から、復号装置400は、ベースビュー内の一連の部分画像のうち、出力対象でないフレームに対する部分画像以外の他の部分画像から、表示領域内の画像列を抽出する。   (B) in FIG. 16A shows a state in which a series of encoded frames for the base view is first decoded from a series of partial images in the base view. Specifically, the decoding apparatus 400 decodes a series of encoded frames for the base view into a series of partial images dec_b0 to dec_b4 in the base view. Also, the decoding apparatus 400 decodes a series of encoded frames for the extended view into a series of partial images dec_d0 to dec_d4 in the extended view. From this state, the decoding apparatus 400 extracts an image sequence in the display area from a partial image other than the partial image corresponding to a frame that is not an output target among a series of partial images in the base view.

たとえば、ダミーフレーム情報が、2番目から4番目のフレームを示していたとする。このとき、復号装置400は、時刻t1〜時刻t3に対応する2番目から4番目の部分画像dec_b1〜dec_b3以外の、部分画像dec_b0、dec_b4から、表示領域内の画像ext_b0、ext_b4を抽出する。また、復号装置400は、部分画像dec_d0〜dec_d4から、表示領域内の画像ext_d0〜ext_d4を抽出する。   For example, it is assumed that the dummy frame information indicates the second to fourth frames. At this time, the decoding apparatus 400 extracts images ext_b0 and ext_b4 in the display area from the partial images dec_b0 and dec_b4 other than the second to fourth partial images dec_b1 to dec_b3 corresponding to the times t1 to t3. Further, the decoding device 400 extracts images ext_d0 to ext_d4 in the display area from the partial images dec_d0 to dec_d4.

続けて、復号装置400は、画像ext_b0と画像ext_d0とを結合した画像com1と、画像ext_b4と画像ext_d1とを結合した画像com2と、を出力する。   Subsequently, the decoding apparatus 400 outputs an image com1 obtained by combining the image ext_b0 and the image ext_d0, and an image com2 obtained by combining the image ext_b4 and the image ext_d1.

図16Bは、出力画像結合処理の具体例を示す説明図(その2)である。図16Aで示す出力画像結合処理は、出力対象でないフレームを除く処理を、復号後と抽出前に行っていたが、図16Bで示す出力画像結合処理は、出力対象でないフレームを除く処理を、抽出後と結合前に行う。復号処理までについては、図16Aで示したものと同一となるため、ベースビュー内の一連の部分画像dec_b0〜dec_b4と、拡張ビュー内の一連の部分画像dec_d0〜dec_d4と、を復号する処理までの説明を省略する。   FIG. 16B is an explanatory diagram (part 2) of the specific example of the output image combining process. The output image combining process shown in FIG. 16A is performed after decoding and before extraction, except for a frame that is not an output target. However, the output image combining process shown in FIG. 16B extracts a process that excludes a frame that is not an output target. After and before joining. Since the process up to the decoding process is the same as that shown in FIG. 16A, the process up to the process of decoding the series of partial images dec_b0 to dec_b4 in the base view and the series of partial images dec_d0 to dec_d4 in the extended view. Description is omitted.

復号を行った後、復号装置400は、部分画像dec_b0〜dec_b4から、表示領域内の画像ext_b0、ext_b4を抽出する。また、復号装置400は、部分画像dec_d0〜dec_d4から、表示領域内の画像ext_d0〜ext_d4を抽出する。   After decoding, the decoding apparatus 400 extracts images ext_b0 and ext_b4 in the display area from the partial images dec_b0 to dec_b4. Further, the decoding device 400 extracts images ext_d0 to ext_d4 in the display area from the partial images dec_d0 to dec_d4.

続けて、復号装置400は、時刻t1〜時刻t3に対応する2番目から4番目の画像ext_b1〜ext_b3以外の、画像ext_b0、ext_b4を、画像ext_d0、ext_d4を結合し、結合した画像を出力する。具体的には、復号装置400は、画像ext_b0と画像ext_d0とを結合した画像com1と、画像ext_b4と画像ext_d1とを結合した画像com2と、を出力する。   Subsequently, the decoding apparatus 400 combines the images ext_b0 and ext_b4 other than the second to fourth images ext_b1 to ext_b3 corresponding to the time t1 to the time t3, and outputs the combined image. Specifically, the decoding device 400 outputs an image com1 obtained by combining the image ext_b0 and the image ext_d0, and an image com2 obtained by combining the image ext_b4 and the image ext_d1.

図16Cは、出力画像結合処理の具体例を示す説明図(その3)である。図16Cでは、復号装置400が、縦横情報を受け付け、縦横情報が縦を示していた場合の出力画像結合処理について説明する。   FIG. 16C is an explanatory diagram (part 3) of the specific example of the output image combining process. In FIG. 16C, output image combination processing when the decoding apparatus 400 receives vertical / horizontal information and the vertical / horizontal information indicates vertical is described.

縦横情報が縦を示していた場合、復号装置400は、指定された表示領域を変換する。具体的には、復号装置400を操作するユーザによって表示領域が数画素右へ移動するように指定された場合、復号装置400は、数画素下に移動するように表示領域を変換する。続けて、符号化フレームの復号、抽出、結合の各処理については、図16Aと示した場合と同じであるため、説明を省略する。結合処理後、復号装置400は、結合により得られた変換後の表示領域の画像列となるcom1、com2を出力する。   When the vertical / horizontal information indicates vertical, the decoding device 400 converts the designated display area. Specifically, when the user operating the decoding device 400 specifies that the display area moves to the right by several pixels, the decoding device 400 converts the display area so as to move down several pixels. Subsequently, the decoding, extraction, and combination processing of the encoded frame is the same as that shown in FIG. After the combining process, the decoding apparatus 400 outputs com1 and com2 that are image strings in the converted display area obtained by combining.

次に、図16A〜図16Cで示した処理のフローチャートについて説明する。図17にて符号化処理のフローチャートを示す。図18A〜図21Bでは、符号化処理から実行される、MVC符号化処理と、ベースビュー内の動きベクトル探索範囲決定処理と、拡張ビュー内の動きベクトル探索範囲決定処理と、のフローチャートを示している。また、図22A、図22Bでは、復号処理のフローチャートを示している。符号化処理〜拡張ビュー内の動きベクトル探索範囲決定処理については、符号化装置101が実行し、復号処理については、符号化装置101と復号装置400が実行する。本実施の形態では、復号処理について、復号装置400が実行する場合を例にして説明を行う。   Next, the flowchart of the process shown in FIGS. 16A to 16C will be described. FIG. 17 shows a flowchart of the encoding process. 18A to 21B show flowcharts of the MVC encoding process, the motion vector search range determination process in the base view, and the motion vector search range determination process in the extended view, which are executed from the encoding process. Yes. 22A and 22B show flowcharts of the decoding process. The encoding apparatus 101 performs the motion vector search range determination process in the extended view, and the encoding apparatus 101 and the decoding apparatus 400 execute the decoding process. In the present embodiment, the decoding process will be described by taking a case where the decoding apparatus 400 executes as an example.

図17は、符号化処理手順の一例を示すフローチャートである。図17では、入力動画像を符号化する処理について説明する。符号化装置101は、横位置撮影か否かを判断する(ステップS1701)。なお、横位置撮影か否かの判断方法については、ジャイロセンサ306からの角度を取得し、角度に応じて判断する。横位置撮影である場合(ステップS1701:Yes)、符号化装置101は、縦横情報を横に設定する(ステップS1702)。横位置撮影でない場合(ステップS1701:No)、符号化装置101は、縦横情報を縦に設定する(ステップS1703)。   FIG. 17 is a flowchart illustrating an example of an encoding processing procedure. In FIG. 17, a process for encoding an input moving image will be described. The encoding apparatus 101 determines whether or not the horizontal position shooting is performed (step S1701). In addition, regarding the determination method of whether it is horizontal position imaging | photography, the angle from the gyro sensor 306 is acquired and it determines according to an angle. In the case of horizontal position shooting (step S1701: Yes), the encoding apparatus 101 sets the vertical / horizontal information horizontally (step S1702). If it is not horizontal position shooting (step S1701: No), the encoding apparatus 101 sets vertical and horizontal information vertically (step S1703).

ステップS1702、またはステップS1703の処理後、符号化装置101は、縦横情報が横を示しているか否かを判断する(ステップS1704)。横を示している場合(ステップS1704:Yes)、符号化装置101は、ベースビューの位置情報を入力画像の中央に、拡張ビューの位置情報をベースビューの左右に決定する(ステップS1705)。縦を示している場合(ステップS1704:No)、符号化装置101は、ベースビューの位置情報を入力画像の中央に、拡張ビューの位置情報をベースビューの上下に決定する(ステップS1706)。   After the process of step S1702 or step S1703, the encoding apparatus 101 determines whether the vertical / horizontal information indicates horizontal (step S1704). When the image is horizontal (step S1704: Yes), the encoding apparatus 101 determines the position information of the base view as the center of the input image and the position information of the extended view as the left and right of the base view (step S1705). When the vertical position is indicated (step S1704: NO), the encoding apparatus 101 determines the position information of the base view at the center of the input image and the position information of the extended view at the top and bottom of the base view (step S1706).

ステップS1702、またはステップS1703の処理後、符号化装置101は、入力画像111から、決定された位置情報に従ったベースビュー内の画像と拡張ビュー内の画像を抽出する(ステップS1707)。次に、符号化装置101は、ベースビュー内の画像と拡張ビュー内の画像をRAM303へ出力し(ステップS1708)、MVC符号化処理を実行する(ステップS1709)。   After the process of step S1702 or step S1703, the encoding apparatus 101 extracts, from the input image 111, an image in the base view and an image in the extended view according to the determined position information (step S1707). Next, the encoding apparatus 101 outputs the image in the base view and the image in the extended view to the RAM 303 (step S1708), and executes the MVC encoding process (step S1709).

続けて、符号化装置101は、ストリーム121に縦横情報とダミーフレーム情報を設定する(ステップS1710)。次に、符号化装置101は、撮影終了か否かを判断する(ステップS1711)。撮影終了していない場合(ステップS1711:No)、符号化装置101は、ステップS1704の処理に移行する。撮影終了する場合(ステップS1711:Yes)、符号化装置101は、符号化処理を終了する。このように、図17で示す処理を実行することで、符号化装置101は、入力動画像を符号化することができる。   Subsequently, the encoding apparatus 101 sets vertical / horizontal information and dummy frame information in the stream 121 (step S1710). Next, the encoding apparatus 101 determines whether or not the photographing is finished (step S1711). If shooting has not ended (step S1711: NO), the encoding apparatus 101 proceeds to the process of step S1704. When the imaging is finished (step S1711: Yes), the encoding apparatus 101 ends the encoding process. As described above, by executing the processing illustrated in FIG. 17, the encoding apparatus 101 can encode the input moving image.

なお、ステップS1707およびステップS1708の処理は画像処理部310が実行し、ステップS1709の処理は画像処理部310が実行する。たとえば、CPU301は、符号化処理を実行するプロセスとして、2つのスレッドを用意してもよい。1つ目のスレッドは、入力画像111を受け付けたらステップS1707とステップS1708の処理を画像処理部310に実行させるスレッドとなる。2つ目のスレッドは、RAM303を一定周期で確認、または1つ目のスレッドから出力したことを受け付け、ベースビュー内の画像と拡張ビュー内の画像があった場合、MVC符号化復号処理部311にステップS1709の処理を実行させるスレッドとなる。   Note that the processing of step S1707 and step S1708 is executed by the image processing unit 310, and the processing of step S1709 is executed by the image processing unit 310. For example, the CPU 301 may prepare two threads as a process for executing the encoding process. The first thread is a thread that causes the image processing unit 310 to execute the processes in steps S1707 and S1708 when the input image 111 is received. The second thread accepts that the RAM 303 is confirmed at a constant cycle or output from the first thread, and if there is an image in the base view and an image in the extended view, the MVC encoding / decoding processing unit 311 Is a thread for executing the processing of step S1709.

図18A、図18Bは、MVC符号化処理の一例を示すフローチャートである。図18A、図18Bでは、ベースビュー内の画像と拡張ビュー内の画像を符号化する処理について説明する。初めに、図18Aにて、符号化装置101は、ベースビュー内の動きベクトル探索範囲決定処理を実行する(ステップS1801)。次に、符号化装置101は、ベースビュー内の画像に対するMVC符号化処理を実行する(ステップS1802)。MVC符号化処理については、H.264 MVCの規格に従った符号化処理を行うため、説明を省略する。   18A and 18B are flowcharts illustrating an example of the MVC encoding process. 18A and 18B, processing for encoding an image in the base view and an image in the extended view will be described. First, in FIG. 18A, the encoding apparatus 101 executes a motion vector search range determination process in the base view (step S1801). Next, the encoding apparatus 101 performs MVC encoding processing on the image in the base view (step S1802). For the MVC encoding process, see H.264. Since the encoding process conforming to the H.264 MVC standard is performed, the description thereof is omitted.

MVC符号化処理を実行し、いずれかの画像が符号化された後、符号化装置101は、ベースビューに対する符号化フレームをストリーム121に出力する(ステップS1803)。続いて、符号化装置101は、ダミーフレームが設定済か否かを判断する(ステップS1804)。ダミーフレームが設定されていない場合(ステップS1804:No)、符号化装置101は、ベースビュー内の先頭の画像を、ダミーフレーム情報のフレーム数分符号化する(ステップS1805)。   After executing the MVC encoding process and encoding any of the images, the encoding apparatus 101 outputs an encoded frame for the base view to the stream 121 (step S1803). Subsequently, the encoding apparatus 101 determines whether or not a dummy frame has been set (step S1804). If no dummy frame is set (step S1804: No), the encoding apparatus 101 encodes the first image in the base view by the number of frames of the dummy frame information (step S1805).

次に、符号化装置101は、生成したダミーフレームをベースビューに対する先頭の符号化フレームの次のフレームに設定する(ステップS1806)。なお、ステップS1805、ステップS1806の処理では、2番目の画像を符号化するタイミングにてダミーフレームが設定される場合について説明している。たとえば、3番目の画像を符号化するタイミングにてダミーフレームが設定される場合、ステップS1805の処理は、「ベースビュー内の2番目の画像を、ダミーフレーム情報のフレーム数分符号化」となる。また、ステップS1806の処理は、「生成したダミーフレームをベースビューに対する2番目の符号化フレームの次のフレームに設定」となる。   Next, the encoding apparatus 101 sets the generated dummy frame as a frame next to the first encoded frame with respect to the base view (step S1806). Note that, in the processing of step S1805 and step S1806, the case where a dummy frame is set at the timing of encoding the second image has been described. For example, when a dummy frame is set at the timing of encoding the third image, the process of step S1805 is “encode the second image in the base view for the number of frames of the dummy frame information”. . Also, the processing in step S1806 is “set the generated dummy frame as the frame next to the second encoded frame for the base view”.

次に、図18Bにて、ステップS1806の処理後、またはダミーフレームが設定済の場合(ステップS1804:Yes)、符号化装置101は、縦横情報が横を示しているか否かを判断する(ステップS1807)。横を示している場合(ステップS1807:Yes)、符号化装置101は、横位置撮影時の拡張ビュー内の動きベクトル探索範囲決定処理を実行する(ステップS1808)。縦を示している場合(ステップS1807:No)、符号化装置101は、縦位置撮影時の拡張ビュー内の動きベクトル探索範囲決定処理を実行する(ステップS1809)。   Next, in FIG. 18B, after the process of step S1806 or when a dummy frame has been set (step S1804: Yes), the encoding apparatus 101 determines whether the vertical / horizontal information indicates horizontal (step S1804). S1807). If it indicates horizontal (step S1807: Yes), the encoding apparatus 101 executes a motion vector search range determination process in the extended view at the time of horizontal position shooting (step S1808). When the vertical direction is indicated (step S1807: No), the encoding apparatus 101 executes a motion vector search range determination process in the extended view at the time of vertical position shooting (step S1809).

ステップS1808の処理、またはステップS1809の処理実行後、符号化装置101は、拡張ビューの画像に対するMVC符号化処理を実行する(ステップS1810)。符号化装置101は、拡張ビューに対する符号化フレームに、拡張ビューを示す識別情報124を付与する(ステップS1811)。次に、符号化装置101は、拡張ビューに対する符号化フレームをストリーム121に出力する(ステップS1812)。続いて、符号化装置101は、撮影終了か否かを判断する(ステップS1813)。撮影終了する場合(ステップS1813:Yes)、符号化装置101は、拡張ビュー内の末尾の画像を、ダミーフレーム情報のフレーム数分符号化する(ステップS1814)。   After executing the process of step S1808 or the process of step S1809, the encoding apparatus 101 executes the MVC encoding process for the extended view image (step S1810). The encoding apparatus 101 adds identification information 124 indicating the extended view to the encoded frame for the extended view (step S1811). Next, the encoding apparatus 101 outputs an encoded frame for the extended view to the stream 121 (step S1812). Subsequently, the encoding apparatus 101 determines whether or not the photographing is finished (step S1813). When the photographing is finished (step S1813: Yes), the encoding apparatus 101 encodes the last image in the extended view by the number of frames of the dummy frame information (step S1814).

次に、符号化装置101は、生成したダミーフレームを拡張ビューに対する末尾の符号化フレームの次のフレームに設定する(ステップS1815)。ステップS1812の終了後、または、撮影終了していない場合(ステップS1813:No)、符号化装置101は、MVC符号化処理を終了する。このように、図18A、図18Bで示す処理を実行することで、符号化装置101は、ベースビュー内の画像と拡張ビュー内の画像を符号化することができる。   Next, the encoding apparatus 101 sets the generated dummy frame as a frame next to the last encoded frame for the extended view (step S1815). After the end of step S1812, or when shooting has not ended (step S1813: No), the encoding apparatus 101 ends the MVC encoding process. As described above, by executing the processing illustrated in FIGS. 18A and 18B, the encoding apparatus 101 can encode the image in the base view and the image in the extended view.

図19は、ベースビュー内の動きベクトル探索範囲決定処理の一例を示すフローチャートである。図19では、カレントMBがベースビュー内に存在する場合の動きベクトル探索範囲を決定する処理について説明する。符号化装置101は、lxとrxを16に設定し、uyとdyを16に設定する(ステップS1901)。次に、符号化装置101は、カレントMBのmbadrxが0か否かを判断する(ステップS1902)。0である場合(ステップS1902:Yes)、符号化装置101は、lxを0に設定する(ステップS1903)。   FIG. 19 is a flowchart illustrating an example of a motion vector search range determination process in the base view. FIG. 19 illustrates processing for determining a motion vector search range when the current MB exists in the base view. The encoding apparatus 101 sets lx and rx to 16 and sets uy and dy to 16 (step S1901). Next, the encoding apparatus 101 determines whether or not mbadrx of the current MB is 0 (step S1902). If it is 0 (step S1902: YES), the encoding apparatus 101 sets lx to 0 (step S1903).

ステップS1903の実行後、またはmbadrxが0ではない場合(ステップS1902:No)、符号化装置101は、カレントMBのmbadrxがmbnumx−1か否かを判断する(ステップS1904)。mbadrxがmbnumx−1である場合(ステップS1904:Yes)、符号化装置101は、rxを0に設定する(ステップS1905)。   After execution of step S1903 or when mbadrx is not 0 (step S1902: No), the encoding apparatus 101 determines whether mbadrx of the current MB is mbnumx−1 (step S1904). When mbadrx is mbnumx-1 (step S1904: Yes), the encoding apparatus 101 sets rx to 0 (step S1905).

ステップS1905の実行後、またはmbadrxがmbnumx−1ではない場合(ステップS1904:No)、符号化装置101は、カレントMBのmbadryが0か否かを判断する(ステップS1906)。mbadryが0である場合(ステップS1906:Yes)、符号化装置101は、uyを0に設定する(ステップS1907)。   After execution of step S1905 or when mbadrx is not mbnumx-1 (step S1904: No), the encoding apparatus 101 determines whether mbadry of the current MB is 0 (step S1906). When mbadry is 0 (step S1906: Yes), the encoding apparatus 101 sets uy to 0 (step S1907).

ステップS1907の実行後、またはmbadryが0ではない場合(ステップS1906:No)、符号化装置101は、カレントMBのmbadryがmbnumy−1か否かを判断する(ステップS1908)。mbadryがmbnumy−1である場合(ステップS1908:Yes)、符号化装置101は、dyを0に設定する(ステップS1909)。   After execution of step S1907, or when mbadry is not 0 (step S1906: No), the encoding apparatus 101 determines whether or not mbadry of the current MB is mbnumy-1 (step S1908). When mbadry is mbnumy-1 (step S1908: Yes), the encoding apparatus 101 sets dy to 0 (step S1909).

ステップS1909の実行後、mbadryがmbnumy−1でない場合(ステップS1908:No)、符号化装置101は、ベースビュー内の探索範囲画像を取得する(ステップS1910)。ベースビュー内の探索範囲画像とは、ベースビュー内に対応する符号化フレームが復号された画像のうち、カレントMBが参照可能な画像のことである。たとえば、カレントMBがPピクチャであれば、過去のPピクチャ、またはIピクチャが復号された画像である。   After execution of step S1909, if mbadry is not mbnumy-1 (step S1908: No), the encoding apparatus 101 acquires a search range image in the base view (step S1910). The search range image in the base view is an image in which the current MB can be referred to among images obtained by decoding the encoded frames corresponding to the base view. For example, if the current MB is a P picture, it is an image obtained by decoding a past P picture or I picture.

次に、符号化装置101は、ベースビュー内の動きベクトル探索処理を実行し(ステップS1911)、ベースビュー内の動きベクトル探索範囲決定処理を終了する。このように、図19で示す処理を実行することで、符号化装置101は、カレントMBがベースビュー内に存在する場合の動きベクトルの探索範囲を決定することができる。なお、ベースビュー内の動きベクトル探索処理は、ステップS1910で取得した画像から、カレントMBと画素値が最も近いMBを探索する処理である。動きベクトル探索処理については、H.264 MVCの規格に従った符号化処理を行うため、説明を省略する。   Next, the encoding apparatus 101 executes a motion vector search process in the base view (step S1911), and ends the motion vector search range determination process in the base view. As described above, by executing the processing illustrated in FIG. 19, the encoding apparatus 101 can determine the search range of the motion vector when the current MB exists in the base view. The motion vector search process in the base view is a process for searching for the MB having the closest pixel value to the current MB from the image acquired in step S1910. The motion vector search process is described in H.264. Since the encoding process conforming to the H.264 MVC standard is performed, the description thereof is omitted.

図20A、図20Bは、横位置撮影時の拡張ビュー内の動きベクトル探索範囲決定処理の一例を示すフローチャートである。図20A、図20Bでは、横位置撮影時にカレントMBが拡張ビュー内に存在する場合の動きベクトル探索範囲を決定する処理について説明する。なお、ステップS2002〜ステップS2009は、ステップS1902〜ステップS1909と同一の処理であるため、説明を省略する。初めに、図20Aでは、符号化装置101は、lxとrxを16に設定し、uyとdyを16に設定し、領域(L)と領域(R)を拡張ビュー内に設定する(ステップS2001)。ステップS2001の処理の実行後、符号化装置101は、ステップS2002の処理を実行する。   20A and 20B are flowcharts illustrating an example of a motion vector search range determination process in the extended view at the time of horizontal position shooting. 20A and 20B, processing for determining a motion vector search range when the current MB exists in the extended view at the time of horizontal position shooting will be described. Steps S2002 to S2009 are the same processing as steps S1902 to S1909, and thus description thereof is omitted. First, in FIG. 20A, the encoding apparatus 101 sets lx and rx to 16, sets uy and dy to 16, and sets area (L) and area (R) in the extended view (step S2001). ). After executing the process of step S2001, the encoding apparatus 101 executes the process of step S2002.

次に、図20Bにて、ステップS2008、またはステップS2009の実行後、符号化装置101は、カレントMBのmbadrxがmbnumx/2−1か否かを判断する(ステップS2010)。mbadrxがmbnumx/2−1である場合(ステップS2010:Yes)、符号化装置101は、領域(R)をベースビュー内に設定する(ステップS2011)。   Next, in FIG. 20B, after executing step S2008 or step S2009, encoding apparatus 101 determines whether or not mbadrx of the current MB is mbnumx / 2-1 (step S2010). When mbadrx is mbnumx / 2-1 (step S2010: Yes), the encoding apparatus 101 sets the region (R) in the base view (step S2011).

ステップS2011の実行後、またはmbadrxがmbnumx/2−1でない場合(ステップS2010:No)、符号化装置101は、カレントMBのmbadrxがmbnumx/2か否かを判断する(ステップS2012)。mbadrxがmbnumx/2である場合(ステップS2012:Yes)、符号化装置101は、領域(L)をベースビュー内に設定する(ステップS2013)。   After execution of step S2011, or when mbadrx is not mbnumx / 2-1, (step S2010: No), the encoding apparatus 101 determines whether mbadrx of the current MB is mbnumx / 2 (step S2012). When mbadrx is mbnumx / 2 (step S2012: Yes), the encoding apparatus 101 sets the region (L) in the base view (step S2013).

ステップS2013の実行後、またはmbadrxがmbnumx/2でない場合(ステップS2012:No)、符号化装置101は、拡張ビュー内の探索範囲画像を取得する(ステップS2014)。拡張ビュー内の探索範囲画像とは、拡張ビュー内に対応する符号化フレームが復号された画像のうち、カレントMBが参照可能な画像のことである。   After executing step S2013, or when mbadrx is not mbnumx / 2 (step S2012: No), the encoding apparatus 101 acquires a search range image in the extended view (step S2014). The search range image in the extended view is an image in which the current MB can be referred to among images obtained by decoding the encoded frames corresponding to the extended view.

次に、符号化装置101は、領域(L)がベースビュー内か、または領域(R)がベースビュー内か否かを判断する(ステップS2015)。領域(L)または領域(R)のいずれかがベースビュー内である場合(ステップS2015:Yes)、符号化装置101は、ベースビュー内の探索範囲画像を取得する(ステップS2016)。ステップS2016で取得されるベースビュー内の画像は、ベースビュー内に対応する符号化フレームが復号された画像のうち、カレントMBが属している画像と同一時刻となる画像である。   Next, the encoding apparatus 101 determines whether the region (L) is in the base view or the region (R) is in the base view (step S2015). When either the region (L) or the region (R) is in the base view (step S2015: Yes), the encoding apparatus 101 acquires a search range image in the base view (step S2016). The image in the base view acquired in step S2016 is an image at the same time as the image to which the current MB belongs, among the images in which the encoded frames corresponding to the base view are decoded.

ステップS2016、または、領域(L)および領域(R)がベースビュー内でない場合(ステップS2015:No)、符号化装置101は、拡張ビュー内の動きベクトル探索処理を実行する(ステップS2017)。なお、拡張ビュー内の動きベクトル探索処理は、ステップS2014で取得した画像から、カレントMBと画素値が最も近いMBを探索する。   When the step S2016 or the region (L) and the region (R) are not in the base view (step S2015: No), the encoding apparatus 101 executes a motion vector search process in the extended view (step S2017). Note that the motion vector search process in the extended view searches for the MB having the closest pixel value to the current MB from the image acquired in step S2014.

続けて、符号化装置101は、領域(L)がベースビュー内か、または領域(R)がベースビュー内否かを判断する(ステップS2018)。領域(L)または領域(R)のいずれかがベースビュー内である場合(ステップS2018:Yes)、符号化装置101は、ベースビュー内の動きベクトル探索処理を実行する(ステップS2019)。なお、拡張ビュー内の動きベクトル探索処理は、ステップS2016で取得した画像から、カレントMBと画素値が最も近いMBを探索する。   Subsequently, the encoding apparatus 101 determines whether the region (L) is in the base view or whether the region (R) is in the base view (step S2018). When either the region (L) or the region (R) is in the base view (step S2018: Yes), the encoding apparatus 101 performs a motion vector search process in the base view (step S2019). Note that the motion vector search process in the extended view searches for the MB having the closest pixel value to the current MB from the image acquired in step S2016.

ステップS2019の処理後、または、領域(L)および領域(R)がベースビュー内でない場合(ステップS2018:No)、符号化装置101は、横位置撮影時の拡張ビュー内の動きベクトル探索範囲決定処理を終了する。このように、図20A、図20Bで示す処理を実行することで、符号化装置101は、横位置撮影時にカレントMBが拡張ビュー内に存在する場合の動きベクトルの探索範囲を決定することができる。   After the process of step S2019, or when the region (L) and the region (R) are not in the base view (step S2018: No), the encoding apparatus 101 determines the motion vector search range in the extended view at the time of horizontal position shooting. The process ends. As described above, by executing the processing shown in FIGS. 20A and 20B, the encoding apparatus 101 can determine the search range of the motion vector when the current MB is present in the extended view at the time of horizontal position shooting. .

図21A、図21Bは、縦位置撮影時の拡張ビュー内の動きベクトル探索範囲決定処理の一例を示すフローチャートである。図21A、図21Bでは、縦位置撮影時にカレントMBが拡張ビュー内に存在する場合の動きベクトル探索範囲を決定する処理について説明する。なお、ステップS2101〜ステップS2109は、ステップS2001〜ステップS2009と同一の処理であるため、説明を省略する。   FIGS. 21A and 21B are flowcharts illustrating an example of a motion vector search range determination process in the extended view at the time of vertical position shooting. 21A and 21B illustrate a process for determining a motion vector search range when the current MB is present in the extended view during vertical position shooting. Steps S2101 to S2109 are the same processes as steps S2001 to S2009, and thus description thereof is omitted.

図21Aにて、ステップS2108、またはステップS2109の実行後、符号化装置101は、カレントMBのmbadryがmbnumy/2−1か否かを判断する(ステップS2110)。mbadryがmbnumy/2−1である場合(ステップS2110:Yes)、符号化装置101は、領域(D)をベースビュー内に設定する(ステップS2111)。   In FIG. 21A, after executing step S2108 or step S2109, encoding apparatus 101 determines whether or not the mbadry of the current MB is mbnumy / 2-1 (step S2110). When mbadry is mbnumy / 2-1 (step S2110: Yes), the encoding apparatus 101 sets the region (D) in the base view (step S2111).

ステップS2111の実行後、またはmbadryがmbnumy/2−1でない場合(ステップS2110:No)、符号化装置101は、カレントMBのmbadryがmbnumy/2か否かを判断する(ステップS2112)。mbadryがmbnumy/2である場合(ステップS2112:Yes)、符号化装置101は、領域(U)をベースビュー内に設定する(ステップS2113)。   After execution of step S2111 or when mbadry is not mbnumy / 2-1 (step S2110: No), the encoding apparatus 101 determines whether or not mbadry of the current MB is mbnumy / 2 (step S2112). When mbadry is mbnumy / 2 (step S2112: Yes), the encoding apparatus 101 sets the region (U) in the base view (step S2113).

ステップS2113の実行後、またはmbadryがmbnumy/2でない場合(ステップS2112:No)、符号化装置101は、拡張ビュー内の探索範囲画像を取得する(ステップS2114)。拡張ビュー内の探索範囲画像とは、拡張ビュー内に対応する符号化フレームが復号された画像のうち、カレントMBが参照可能な画像のことである。   After executing step S2113, or when mbadry is not mbnumy / 2 (step S2112: No), the encoding apparatus 101 acquires a search range image in the extended view (step S2114). The search range image in the extended view is an image in which the current MB can be referred to among images obtained by decoding the encoded frames corresponding to the extended view.

次に、符号化装置101は、領域(U)がベースビュー内か、または領域(D)がベースビュー内か否かを判断する(ステップS2115)。領域(U)または領域(D)のいずれかがベースビュー内である場合(ステップS2115:Yes)、符号化装置101は、ベースビュー内の探索範囲画像を取得する(ステップS2116)。ステップS2116で取得されるベースビュー内の画像は、ベースビュー内に対応する符号化フレームが復号された画像のうち、カレントMBが属している画像と同一時刻となる画像である。   Next, the encoding apparatus 101 determines whether the region (U) is in the base view or the region (D) is in the base view (step S2115). When either the region (U) or the region (D) is in the base view (step S2115: Yes), the encoding apparatus 101 acquires a search range image in the base view (step S2116). The image in the base view acquired in step S2116 is an image at the same time as the image to which the current MB belongs, among images obtained by decoding the encoded frames corresponding to the base view.

ステップS2116の実行後、または、領域(U)および領域(D)がベースビュー内でない場合(ステップS2115:No)、符号化装置101は、拡張ビュー内の動きベクトル探索処理を実行する(ステップS2117)。なお、拡張ビュー内の動きベクトル探索処理は、ステップS2114で取得した画像から、カレントMBと画素値が最も近いMBを探索する。   After execution of step S2116 or when the region (U) and the region (D) are not in the base view (step S2115: No), the encoding apparatus 101 executes motion vector search processing in the extended view (step S2117). ). Note that the motion vector search process in the extended view searches for an MB having the closest pixel value to the current MB from the image acquired in step S2114.

続けて、符号化装置101は、領域(U)がベースビュー内か、または領域(D)がベースビュー内か否かを判断する(ステップS2118)。領域(U)または領域(D)のいずれかがベースビュー内である場合(ステップS2118:Yes)、符号化装置101は、ベースビュー内の動きベクトル探索処理を実行する(ステップS2119)。なお、拡張ビュー内の動きベクトル探索処理は、ステップS2016で取得した画像から、カレントMBと画素値が最も近いMBを探索する。   Subsequently, the encoding apparatus 101 determines whether the region (U) is in the base view or the region (D) is in the base view (step S2118). When either the region (U) or the region (D) is in the base view (step S2118: Yes), the encoding apparatus 101 executes a motion vector search process in the base view (step S2119). Note that the motion vector search process in the extended view searches for the MB having the closest pixel value to the current MB from the image acquired in step S2016.

ステップS2119の処理後、または、領域(U)および領域(D)がベースビュー内でない場合(ステップS2118:No)、符号化装置101は、縦位置撮影時の拡張ビュー内の動きベクトル探索範囲決定処理を終了する。このように、図21A、図21Bで示す処理を実行することで、符号化装置101は、縦位置撮影時にカレントMBが拡張ビュー内に存在する場合の動きベクトルの探索範囲を決定することができる。   After the process of step S2119, or when the area (U) and the area (D) are not in the base view (step S2118: No), the encoding apparatus 101 determines the motion vector search range in the extended view at the time of vertical position shooting. End the process. As described above, by executing the processing illustrated in FIGS. 21A and 21B, the encoding apparatus 101 can determine the search range of the motion vector when the current MB is present in the extended view during vertical position shooting. .

図22A、図22Bは、復号処理手順の一例を示すフローチャートである。図22A、図22Bでは、符号化フレームを復号する処理について説明する。ユーザなどからの動画像再生要求を受け付けると、復号装置400は、ストリーム121から縦横情報とダミーフレーム情報を受け付ける(ステップS2201)。次に、復号装置400は、識別情報124に基づいて、ストリーム121からベースビューに対する符号化フレームを選択し(ステップS2202)、ユーザから表示領域が指定されたか否かを判断する(ステップS2203)。   22A and 22B are flowcharts illustrating an example of the decoding processing procedure. 22A and 22B describe a process for decoding an encoded frame. When receiving a moving image playback request from a user or the like, the decoding apparatus 400 receives vertical / horizontal information and dummy frame information from the stream 121 (step S2201). Next, the decoding apparatus 400 selects an encoded frame for the base view from the stream 121 based on the identification information 124 (step S2202), and determines whether a display area is designated by the user (step S2203).

表示領域が指定されていない場合(ステップS2203:No)、復号装置400は、ベースビューに対する符号化フレームに対してMVC復号処理を実行する(ステップS2204)。次に、復号装置400は、ベースビュー内の部分画像をRAM403に出力する(ステップS2205)。続けて、復号装置400は、ベースビュー内の部分画像のうち、出力対象でない符号化フレームに対応する部分画像以外の画像を出力対象に設定する(ステップS2206)。次に、復号装置400は、ベースビュー内の出力対象の画像を出力する(ステップS2207)。   When the display area is not specified (step S2203: No), the decoding apparatus 400 performs an MVC decoding process on the encoded frame for the base view (step S2204). Next, the decoding device 400 outputs the partial image in the base view to the RAM 403 (step S2205). Subsequently, the decoding apparatus 400 sets an image other than the partial image corresponding to the encoded frame that is not the output target among the partial images in the base view as the output target (step S2206). Next, the decoding apparatus 400 outputs an output target image in the base view (step S2207).

ステップS2207、または図22Bで示すステップS2203:Yesのルートとなる一連の処理終了後、復号装置400は、再生終了か否かを判断する(ステップS2208)。再生終了していない場合(ステップS2208:No)、復号装置400は、ステップS2202の処理に移行する。再生終了する場合(ステップS2208:Yes)、復号装置400は、復号処理を終了する。   Step S2207 or step S2203 shown in FIG. 22B: After a series of processing that becomes the route of Yes, the decoding apparatus 400 determines whether or not the reproduction has ended (step S2208). When the reproduction has not ended (step S2208: No), the decoding device 400 proceeds to the process of step S2202. When the reproduction ends (step S2208: Yes), the decoding device 400 ends the decoding process.

次に、図22Bにて、表示領域が指定された場合(ステップS2203:Yes)、復号装置400は、ストリーム121から拡張ビューに対する符号化フレームを選択する(ステップS2209)。ステップS2202とステップS2209の処理によって、復号対象となるベースビューに対する符号フレームと、同一時刻の拡張ビューに対する符号化フレームが選択されたことになる。続けて、復号装置400は、ベースビューに対する符号化フレームと拡張ビューに対する符号化フレームに対してMVC復号処理を実行する(ステップS2210)。MVC復号処理は、H.264 MVCの規格に従った復号処理を行うため、説明を省略する。   Next, when the display area is designated in FIG. 22B (step S2203: Yes), the decoding apparatus 400 selects an encoded frame for the extended view from the stream 121 (step S2209). Through the processing in steps S2202 and S2209, the code frame for the base view to be decoded and the encoded frame for the extended view at the same time are selected. Subsequently, the decoding apparatus 400 performs MVC decoding processing on the encoded frame for the base view and the encoded frame for the extended view (step S2210). The MVC decoding process is the same as that of H.264. Since the decoding process conforming to the H.264 MVC standard is performed, the description thereof is omitted.

次に、復号装置400は、復号されたベースビューと拡張ビューの部分画像をRAM403に出力する(ステップS2211)。続けて、復号装置400は、ベースビュー内の部分画像のうち、出力対象でない符号化フレームに対応する部分画像以外の画像を出力対象に設定する(ステップS2212)。次に、復号装置400は、縦横情報が横を示しているか否かを判断する(ステップS2213)。   Next, the decoding apparatus 400 outputs the decoded partial images of the base view and the extended view to the RAM 403 (Step S2211). Subsequently, the decoding apparatus 400 sets an image other than the partial image corresponding to the encoded frame that is not the output target among the partial images in the base view as the output target (step S2212). Next, the decoding apparatus 400 determines whether the vertical / horizontal information indicates horizontal (step S2213).

縦を示している場合(ステップS2213:No)、復号装置400は、縦横情報に応じて、指定された表示領域を変換する(ステップS2214)。具体的には、表示領域が中央部分から右方向に10画素移動するように指定された場合、変換後の表示領域は、中央部分から下方向に10画素移動された領域となる。ステップS2214を実行後、または横を示している場合(ステップS2213:Yes)、復号装置400は、ベースビュー内の部分画像から表示領域内の画像列を抽出し、拡張ビュー内の部分画像から表示領域内の画像列を抽出する(ステップS2215)。   When the vertical direction is indicated (step S2213: No), the decoding apparatus 400 converts the designated display area according to the vertical and horizontal information (step S2214). Specifically, when the display area is designated to move 10 pixels in the right direction from the central portion, the converted display area is an area that has been moved 10 pixels in the downward direction from the central portion. After executing step S2214 or when showing sideways (step S2213: Yes), the decoding apparatus 400 extracts the image sequence in the display area from the partial image in the base view and displays it from the partial image in the extended view. An image sequence in the region is extracted (step S2215).

次に、復号装置400は、ベースビュー内の画像列の各画像と拡張ビュー内の画像列の各画像を、同一画像どうしで結合する(ステップS2216)。次に、復号装置400は、指定された表示領域の画像を出力し(ステップS2217)、ステップS2208の処理に移行する。このように、図22A、図22Bで示す処理を実行することで、復号装置400は、符号化フレームを復号し、動画像を再生することができる。   Next, the decoding apparatus 400 combines the images in the image sequence in the base view and the images in the image sequence in the extended view by using the same image (step S2216). Next, the decoding apparatus 400 outputs an image of the designated display area (step S2217), and proceeds to the process of step S2208. In this way, by executing the processing shown in FIGS. 22A and 22B, the decoding device 400 can decode the encoded frame and reproduce the moving image.

以上説明したように、符号化装置、動画像処理システム、符号化方法、および符号化プログラムによれば、4k2kの画像から、2k1kを独立したベースビューとし左右の領域をベースビューを参照する拡張ビューとして、ビューの識別情報を付与する。これにより、ベースビューを復号する復号装置は、識別情報から復号対象をベースビューに対する符号化フレームに限定できるため、画面全体を復号してから変換するよりも復号量が低減化できる。   As described above, according to the encoding device, the moving image processing system, the encoding method, and the encoding program, an extended view that uses 2k1k as an independent base view and refers to the left and right regions as base views from a 4k2k image. As such, view identification information is given. Thereby, since the decoding apparatus which decodes a base view can limit a decoding object to the encoding frame with respect to a base view from identification information, decoding amount can be reduced rather than converting after decoding the whole screen.

復号量の低減化により、たとえば、復号装置は、ユーザから再生指示を受け付けて動画像の再生を開始するまでの時間を短縮することができる。また、復号装置は、早送り、巻き戻し、頭出し、といったトリックプレイを行う場合にも、トリックプレイを開始するまでの時間を短縮することができる。たとえば、頭出しを行う場合、復号装置は、頭出し処理を高速化することができる。また、動画像再生中の復号装置は、動画像の再生が不自然に途切れたりする現象を減らすことができる。   By reducing the amount of decoding, for example, the decoding device can shorten the time from when a playback instruction is received from the user to when playback of a moving image starts. Also, the decoding device can shorten the time until the trick play is started even when performing trick play such as fast forward, rewind, and cue. For example, when performing cueing, the decoding device can speed up cueing processing. In addition, the decoding device during moving image reproduction can reduce a phenomenon in which reproduction of moving images is unnaturally interrupted.

また、符号化装置は、ダミーフレームを過去へ参照可能な枚数分生成して、ベースビューに設定してもよい。これにより、拡張ビューの符号化時に、過去のベースビューの画像を参照することができ、符号化装置は、符号化効率を向上することができる。なお、ダミーフレームは、スキップマクロブロックとなることが多いため、追加される符号量は小さい。   Also, the encoding apparatus may generate dummy frames for the number of sheets that can be referred to the past and set them as the base view. Thereby, when encoding an extended view, it is possible to refer to a past base view image, and the encoding apparatus can improve encoding efficiency. Since the dummy frame is often a skip macroblock, the added code amount is small.

たとえば、物体がベースビューから拡張ビューに移動した場合、過去のベースビューの画像を参照することができるようになり、符号化効率を向上させることができる。とくに、拡張ビューのPピクチャは、過去方向にしか参照できないため、ベースビューの過去の画像を参照できるようになることで、符号化効率を向上することができる。また、符号化効率が向上することで、符号化装置は、撮影時間を延ばすことができる。   For example, when the object moves from the base view to the extended view, an image of the past base view can be referred to, and the encoding efficiency can be improved. In particular, since the P picture of the extended view can be referred to only in the past direction, the past picture of the base view can be referred to, thereby improving the coding efficiency. In addition, since the encoding efficiency is improved, the encoding apparatus can extend the shooting time.

また、符号化装置は、ダミーフレームの生成数を、連続して存在するBピクチャの数+1にしてもよい。これにより、拡張ビューのPピクチャが、ベースビューのIピクチャまたはPピクチャを参照することになる。ベースビューのIピクチャまたはPピクチャが高画質に符号化されている場合、高画質の画像を参照できるため、より高画質な画像をユーザに提供できる。   In addition, the encoding apparatus may set the number of dummy frames generated to be the number of consecutive B pictures + 1. As a result, the P picture of the extended view refers to the I picture or P picture of the base view. When the base view I-picture or P-picture is encoded with high image quality, a high-quality image can be referred to, and thus a higher-quality image can be provided to the user.

また、符号化装置は、ダミーフレームが設定済の場合、ダミーフレームを生成せずともよい。既にダミーフレームが設定済の場合であれば、符号化装置は、拡張ビューの符号化時に、過去のベースビューの画像を参照することになるためである。   Also, the encoding device may not generate a dummy frame when a dummy frame has been set. This is because if the dummy frame has already been set, the encoding device refers to the past base view image when encoding the extended view.

また、符号化装置は、ダミーフレームを過去へ参照可能な枚数分生成して、拡張ビューに設定してもよい。これにより、拡張ビューの符号化時に、未来のベースビューの画像を参照することができる。たとえば、物体が拡張ビューからベースビューに移動した場合、拡張ビューのPピクチャは、拡張ビュー内の過去の画像と、ベースビュー内の未来の画像を参照することができ、未来の画像の方が現在の画像と近ければ、符号化効率を向上することができる。   Also, the encoding device may generate dummy frames for the number of sheets that can be referred to the past and set the dummy frames in the extended view. Thereby, the image of the future base view can be referred to when the extended view is encoded. For example, when an object moves from the extended view to the base view, the P picture of the extended view can refer to the past image in the extended view and the future image in the base view, and the future image is more If it is close to the current image, the encoding efficiency can be improved.

また、符号化装置は、自装置の縦横を検出し、ベースビューと拡張ビューの抽出位置を変えてもよい。これにより、符号化装置は、横を検出した場合、横長の物体に適した表示領域で撮影し、縦を検出した場合、縦長の物体に適した表示領域で撮影することができる。   Also, the encoding device may detect the vertical and horizontal directions of its own device and change the extraction position of the base view and the extended view. Accordingly, the encoding device can capture an image in a display area suitable for a horizontally long object when detecting a landscape, and can capture an image in a display area suitable for a vertically long object when detecting a portrait.

また、符号化装置は、拡張ビュー内の画像の符号化について、ベースビュー内の画像に基づいて符号化してもよい。たとえば、符号化装置が、ダミーフレームを設定しないで、単にベースビュー内の画像と、拡張ビュー内の画像を符号化する仕様であるとする。このとき、ベースビュー内の画像の符号化する時刻と拡張ビュー内の画像の符号化する時刻とはほぼ同時になるため、ベースビュー内の画像がメモリに残っている可能性がある。この場合、符号化装置は、ベースビュー内の画像を符号化した符号化フレームを用いず、そのままベースビュー内の画像を用いて符号化してもよい。   Further, the encoding apparatus may encode the image in the extended view based on the image in the base view. For example, it is assumed that the encoding apparatus simply has specifications for encoding an image in the base view and an image in the extended view without setting a dummy frame. At this time, the time at which the image in the base view is encoded and the time at which the image in the extended view is encoded are almost the same, so there is a possibility that the image in the base view remains in the memory. In this case, the encoding apparatus may encode the image in the base view as it is without using the encoded frame obtained by encoding the image in the base view.

また、復号装置、動画像処理システム、復号方法、および復号プログラムによれば、第1および第2の領域の一連の符号化フレームと、符号化フレームに付与された領域を示す識別情報を受け付け、識別情報から第1の領域の符号化フレームを復号する。このように、復号装置は、識別情報から復号対象をベースビューに対する符号化フレームに限定できるため、復号量が低減化できる。   In addition, according to the decoding device, the moving image processing system, the decoding method, and the decoding program, a series of encoded frames of the first and second regions and identification information indicating the region assigned to the encoded frames are received, The encoded frame in the first area is decoded from the identification information. Thus, since the decoding apparatus can limit the decoding target to the encoded frame for the base view from the identification information, the decoding amount can be reduced.

また、復号装置は、出力対象でない符号化フレームの数および位置を示す情報から、出力対象以外の符号化フレームに対応した復号画像を出力する。これにより、復号装置は、ダミーフレームが含まれていない動画像を出力することができる。   Further, the decoding apparatus outputs a decoded image corresponding to the encoded frame other than the output target from the information indicating the number and position of the encoded frames that are not the output target. Thereby, the decoding apparatus can output a moving image that does not include a dummy frame.

また、復号装置は、表示領域が指定された場合、一連の画像のベースビュー内に対する符号化フレームと、一連の画像の拡張ビュー内に対する符号化フレームと、をそれぞれ復号し、表示領域に抽出し、結合して出力してもよい。これにより、復号装置は、表示領域の変更に応答でき、また、指定があったときだけ、拡張ビュー内に対する符号化フレームを復号することになるため、常に拡張ビュー内の画像を復号することに比べ、処理効率を向上することができる。   In addition, when the display area is designated, the decoding device decodes each of the encoded frames in the base view of the series of images and the encoded frames in the extended view of the series of images, and extracts them to the display area. , May be combined and output. As a result, the decoding apparatus can respond to the change of the display area, and decodes the encoded frame in the extended view only when designated, so that the image in the extended view is always decoded. In comparison, the processing efficiency can be improved.

また、復号装置は、表示領域が指定され、かつ、出力対象でない符号化フレームの数および位置を受け付けた場合、出力対象以外の符号化フレームに対応したベースビュー内の部分画像と拡張ビュー内の部分画像を、抽出して結合してもよい。これにより、復号装置は、4k1kから指定された表示領域を抽出した方法と同じように再生でき、かつ、符号化効率が向上しているため、消費電力も少なくなり再生時間を長くすることができる。また、出力対象以外の画像を除く処理は、抽出処理の後に行ってもよい。   In addition, when the display area is specified and the number and position of the encoded frames that are not the output target are received, the decoding apparatus receives the partial image in the base view and the extended view corresponding to the encoded frames other than the output target. Partial images may be extracted and combined. As a result, the decoding apparatus can perform reproduction in the same manner as the method of extracting the display area designated from 4k1k, and the encoding efficiency is improved, so that power consumption is reduced and reproduction time can be extended. . Further, the process of removing images other than the output target may be performed after the extraction process.

また、復号装置は、一連の画像を受け付けた装置が一連の画像を受け付けたときの角度に関する情報を受け付けて、指定された表示領域を変換してもよい。これにより、復号装置は、一連の画像が受け付けられたときと同じ画像の向きで再生することができる。   In addition, the decoding device may convert the designated display area by receiving information about an angle when the device that has received the series of images receives the series of images. Thereby, the decoding apparatus can reproduce the image in the same direction as when a series of images is received.

また、符号化装置は、ベースビューの領域と拡張ビューの領域を指定してもよい。たとえば、撮影開始時には、撮影対象物aが撮影範囲の中央に存在し、撮影途中にて、撮影対象物aが撮影範囲内の右側に移動したとする。このような場合、本実施の形態では復号装置のユーザの操作により表示領域が指定されていた例として提示したが、符号化の時点にて、符号化装置を操作するユーザの操作により、ベースビューの領域と拡張ビューの領域を指定してもよい。   Also, the encoding apparatus may specify a base view area and an extended view area. For example, it is assumed that the shooting target object a exists in the center of the shooting range at the start of shooting, and the shooting target object a moves to the right side in the shooting range in the middle of shooting. In such a case, in the present embodiment, the display area is specified as an example specified by the user of the decoding device. However, at the time of encoding, the base view is displayed by the user operating the encoding device. And an extended view area may be specified.

具体的に、ユーザの指示により、ベースビューの領域が、左上の座標が(1.2k、0.5k)であり、縦1k[画素]、横2k[画素]の矩形領域となったとする。ユーザの指示を受け付けた符号化装置は、指定されたベースビューの領域にて、ベースビュー内の画像を抽出する。また、符号化装置は、左上の座標が(0k、0.5k)であり、縦1k[画素]、横1.2k[画素]となる領域と、左上の座標が(3.2k、0.5k)であり、縦1k[画素]、横0.8k[画素]となる領域と、を拡張ビューの領域として抽出する。   Specifically, it is assumed that the base view area is a rectangular area of 1k [pixel] in length and 2k [pixel] in width, in accordance with the user's instruction, in which the upper left coordinates are (1.2k, 0.5k). Upon receiving the user instruction, the encoding apparatus extracts an image in the base view in the designated base view area. In the encoding apparatus, the upper left coordinates are (0k, 0.5k), the area is 1k [pixel] in the vertical direction and 1.2k [pixel] in the horizontal direction, and the upper left coordinates are (3.2k, 0. 5k), and an area of 1k [pixel] in length and 0.8k [pixel] in width is extracted as an extended view area.

続けて、符号化装置は、抽出された画像を符号化し、指定された領域を情報として付与してストリーム121に出力する。このとき、拡張ビューのベクトル探索範囲決定処理は、カレントMBの横座標が1.2kに隣接している箇所で、ベースビュー内の探索範囲画像を取得することになる。   Subsequently, the encoding apparatus encodes the extracted image, assigns the designated area as information, and outputs the information to the stream 121. At this time, in the extended view vector search range determination process, the search range image in the base view is acquired at a location where the abscissa of the current MB is adjacent to 1.2k.

次に、復号装置は、復号装置のユーザの操作がなく、表示領域が指定されない場合、ベースビューの画像を復号する。これにより、撮影対象物aが移動した場合でも、復号対象をベースビューに対する符号化フレームに限定できるため、復号量が低減化できる。   Next, the decoding device decodes the image of the base view when there is no operation by the user of the decoding device and the display area is not designated. Thereby, even when the imaging target a moves, the decoding target can be limited to the encoded frame for the base view, so that the decoding amount can be reduced.

また、H.264 MVCは、再符号化、復号することなく、ベースビューの再生を行うことを可能としている。したがって、フルHD H.264 AVCとして、既存の復号装置で再生することが可能である。   H. H.264 MVC makes it possible to reproduce a base view without re-encoding and decoding. Therefore, Full HD H.264 H.264 AVC can be played back by an existing decoding device.

なお、本実施の形態で説明した符号化方法、復号方法は、予め用意されたプログラムをパーソナル・コンピュータやワークステーション等のコンピュータで実行することにより実現することができる。符号化プログラム、復号プログラムは、ハードディスク、フレキシブルディスク、CD−ROM、MO、DVD等のコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。また符号化プログラム、復号プログラムは、インターネット等のネットワークを介して配布してもよい。   Note that the encoding method and decoding method described in this embodiment can be realized by executing a program prepared in advance on a computer such as a personal computer or a workstation. The encoding program and the decoding program are recorded on a computer-readable recording medium such as a hard disk, a flexible disk, a CD-ROM, an MO, and a DVD, and are executed by being read from the recording medium by the computer. The encoding program and the decoding program may be distributed via a network such as the Internet.

また、本実施の形態で説明した画像処理部310、MVC符号化復号処理部311は、スタンダードセルやストラクチャードASIC(Application Specific Integrated Circuit)などの特定用途向けIC(以下、単に「ASIC」と称す。)やFPGAなどのPLD(Programmable Logic Device)によっても実現することができる。画像処理部407、MVC復号処理部408も同様である。一例として、たとえば、上述した抽出部504をHDL記述によって機能定義し、そのHDL記述を論理合成してASICやPLDに与えることにより、画像処理部310を製造することができる。   In addition, the image processing unit 310 and the MVC encoding / decoding processing unit 311 described in the present embodiment are referred to simply as “ASIC” for specific applications such as standard cells and structured ASIC (Application Specific Integrated Circuit). Or PLD (Programmable Logic Device) such as FPGA. The same applies to the image processing unit 407 and the MVC decoding processing unit 408. As an example, for example, the image processing unit 310 can be manufactured by defining the function of the above-described extraction unit 504 by HDL description, logically synthesizing the HDL description, and giving the ASIC or PLD.

上述した実施の形態に関し、さらに以下の付記を開示する。   The following additional notes are disclosed with respect to the embodiment described above.

(付記1)一連の画像のいずれかの画像から、第1の領域内の画像と前記第1の領域に隣接する第2の領域内の画像とを抽出する抽出部と、
前記第1の領域内の画像を前記第1の領域に対する符号化フレームに符号化する第1の符号化部と、
前記第1の符号化部が前記いずれかの画像を符号化する場合、前記いずれかの画像の前の画像の前記第1の領域に対する符号化フレームのダミーフレームを、前記前の画像のうち前記第1の領域内の画像に基づいて、自符号化フレームで再生可能な特定の符号化フレームの出現間隔に含まれるフレーム数以下分生成する生成部と、
前記生成部によって生成数分生成されたダミーフレームを、前記前の画像の前記第1の領域に対する符号化フレームの次の符号化フレームに設定する設定部と、
前記いずれかの画像の前記第1の領域に対する符号化フレームに先行する先行符号化フレーム群のうち前記いずれかの画像の前記第1の領域に対する符号化フレームから前記ダミーフレームの前記生成数分先行する先行符号化フレームによる画像と、前記いずれかの画像の前記第2の領域内の画像と、に基づいて、前記いずれかの画像の第2の領域内の画像を前記いずれかの画像の前記第2の領域に対する符号化フレームに符号化する第2の符号化部と、
前記生成数分生成された前記ダミーフレームと前記ダミーフレームの生成数および設定位置を示す情報とを出力する出力部と、
を有することを特徴とする符号化装置。
(Additional remark 1) The extraction part which extracts the image in a 1st area | region and the image in a 2nd area | region adjacent to the said 1st area | region from any image of a series of images,
A first encoding unit that encodes an image in the first region into an encoded frame for the first region;
When the first encoding unit encodes any one of the images, a dummy frame of an encoding frame for the first region of the previous image of the any image is set as the dummy frame of the previous image. Based on the image in the first region, a generation unit that generates a number equal to or less than the number of frames included in the appearance interval of a specific encoded frame that can be reproduced with the self-encoded frame;
A setting unit configured to set the dummy frames generated by the generation unit by the number of generations as the next encoded frame of the encoded frame for the first region of the previous image;
The preceding encoded frame group preceding the encoded frame for the first region of any of the images is preceded by the number of generations of the dummy frame from the encoded frame for the first region of any of the images. An image in the second region of any one of the images based on the image by the preceding encoded frame and the image in the second region of any one of the images. A second encoding unit that encodes an encoded frame for the second region;
An output unit for outputting the dummy frames generated for the generation number and information indicating the generation number and setting position of the dummy frames;
An encoding device comprising:

(付記2)前記生成部は、
前記ダミーフレームを、前記第1の符号化部が符号化する符号化フレーム群のうち複数の参照先を有する符号化フレームが連続して存在する数より1多い数分、生成することを特徴とする付記1に記載の符号化装置。
(Appendix 2) The generation unit
The dummy frames are generated by a number one more than the number of encoded frames having a plurality of reference destinations in the encoded frame group encoded by the first encoding unit. The encoding device according to appendix 1.

(付記3)前記第2の符号化部は、
前記ダミーフレームが設定済の場合、前記いずれかの画像の前記第1の領域に対する符号化フレームに先行する先行符号化フレーム群のうち当該符号化フレームから前記ダミーフレームの前記生成数分先行する先行符号化フレームによる画像と、前記いずれかの画像の前記第2の領域内の画像と、に基づいて、前記いずれかの画像の第2の領域内の画像を前記いずれかの画像の前記第2の領域に対する符号化フレームに符号化することを特徴とする付記1または2に記載の符号化装置。
(Supplementary Note 3) The second encoding unit includes:
If the dummy frame has been set, the preceding preceding the number of generations of the dummy frame from the encoded frame in the preceding encoded frame group preceding the encoded frame for the first region of any one of the images Based on the image by the encoding frame and the image in the second region of any one of the images, the image in the second region of any one of the images is changed to the second of the one of the images. The encoding apparatus according to appendix 1 or 2, wherein encoding is performed on an encoding frame corresponding to a region of 1.

(付記4)前記生成部は、
前記第2の符号化部が前記いずれかの画像を符号化する場合、前記いずれかの画像の前の画像の前記第2の領域に対する符号化フレームのダミーフレームを、前記前の画像のうち前記第2の領域内の画像に基づいて、自符号化フレームで再生可能な特定の符号化フレームの出現間隔に含まれるフレーム数以下分生成し、
前記設定部は、
前記生成部によって生成数分生成されたダミーフレームを、前記前の画像の前記第2の領域に対する符号化フレームの次の符号化フレームに設定し、
前記第2の符号化部は、
前記いずれかの画像の前記第1の領域に対する符号化フレームに後続する後続符号化フレーム群のうち前記いずれかの画像の前記第1の領域に対する符号化フレームから前記ダミーフレームの生成数分後続する後続符号化フレームによる画像と、前記いずれかの画像の前記第2の領域内の画像と、に基づいて、前記いずれかの画像の第2の領域内の画像を前記いずれかの画像の前記第2の領域に対する符号化フレームに符号化し、
前記出力部は、
さらに、前記生成数分生成された前記ダミーフレームと前記ダミーフレームの生成数および設定位置を示す情報とを出力することを特徴とする付記1に記載の符号化装置。
(Supplementary Note 4) The generation unit
When the second encoding unit encodes any one of the images, a dummy frame of an encoded frame for the second region of the previous image of the any image is set as the dummy frame of the previous image. Based on the image in the second region, the number of frames included in the appearance interval of a specific encoded frame that can be reproduced with the self-encoded frame is generated,
The setting unit
The dummy frames generated by the number of generations by the generation unit are set as the next encoded frame of the encoded frame for the second region of the previous image,
The second encoding unit includes:
The number of generations of the dummy frames follows from the encoded frame for the first region of the image in the subsequent encoded frame group following the encoded frame for the first region of the image. Based on the image in the subsequent encoded frame and the image in the second region of any one of the images, the image in the second region of any one of the images is Encode into an encoded frame for region 2;
The output unit is
Furthermore, the encoding apparatus according to appendix 1, wherein the number of the generated dummy frames and the information indicating the number of generated dummy frames and the set position are output.

(付記5)前記一連の画像を受け付けたときの自装置の角度に関する情報を取得する取得部と、
前記取得部によって取得された前記自装置の角度に関する情報に応じて、前記第1および第2の領域の位置情報を決定する決定部と、を有し、
前記抽出部は、
前記いずれかの画像から、前記位置情報に従った前記第1の領域内の画像と前記位置情報に従った前記第2の領域内の画像とを抽出することを特徴とする付記1〜4のいずれか一つに記載の符号化装置。
(Additional remark 5) The acquisition part which acquires the information regarding the angle of the own apparatus when the said series of images are received,
A determination unit that determines position information of the first and second regions according to information on the angle of the device acquired by the acquisition unit;
The extraction unit includes:
Supplementary notes 1-4, wherein an image in the first area according to the position information and an image in the second area according to the position information are extracted from any of the images. The encoding apparatus as described in any one.

(付記6)前記出力部は、
前記自装置の角度に関する情報を出力することを特徴とする付記5に記載の符号化装置。
(Appendix 6) The output unit
6. The encoding apparatus according to appendix 5, wherein information relating to the angle of the own apparatus is output.

(付記7)一連の画像のうち第1の領域内の一連の部分画像に対する一連の符号化フレームと、前記一連の画像のうち前記第1の領域に隣接する第2の領域内の一連の部分画像に対する一連の符号化フレームと、前記第1または第2の領域内の一連の部分画像に対する一連の符号化フレームの少なくともいずれか一方に付与された前記いずれか一方に対応する識別情報と、前記第1または第2の領域内の一連の部分画像に対する一連の符号化フレームのうち出力対象でない符号化フレームの数および位置を示す情報と、を受け付ける受付部と、
前記第1および第2の領域内の一連の部分画像に対する一連の符号化フレームから、前記識別情報に基づいて、前記第1の領域内の一連の部分画像に対する一連の符号化フレームを選択する選択部と、
前記選択部によって選択された一連の符号化フレームを一連の部分画像に復号する復号部と、
前記復号部によって復号された前記一連の部分画像のうち、前記出力対象でない符号化フレームの数および位置を示す情報に基づいて、前記出力対象でない符号化フレームに対応する部分画像以外の他の部分画像を出力する出力部と、
を有することを特徴とする復号装置。
(Supplementary note 7) A series of encoded frames for a series of partial images in a first area in a series of images, and a series of parts in a second area adjacent to the first area in the series of images. A series of encoded frames for an image, identification information corresponding to the one given to at least one of a series of encoded frames for a series of partial images in the first or second region, and A reception unit that receives information indicating the number and position of encoded frames that are not to be output among a series of encoded frames for a series of partial images in the first or second region;
Selecting a series of encoded frames for a series of partial images in the first area from a series of encoded frames for a series of partial images in the first and second areas based on the identification information And
A decoding unit for decoding a series of encoded frames selected by the selection unit into a series of partial images;
Of the series of partial images decoded by the decoding unit, other parts other than the partial images corresponding to the encoded frames that are not the output target based on the information indicating the number and position of the encoded frames that are not the output target An output unit for outputting an image;
A decoding device comprising:

(付記8)一連の画像のうち第1の領域内の一連の部分画像に対する一連の符号化フレームと、前記一連の画像のうち前記第1の領域に隣接する第2の領域内の一連の部分画像に対する一連の符号化フレームと、前記第1または第2の領域内の一連の部分画像に対する一連の符号化フレームの少なくともいずれか一方に付与された前記いずれか一方に対応する識別情報と、を受け付ける受付部と、
前記第1の領域と前記第2の領域とを結合した領域から表示領域を指定する指定部と、
前記第1および第2の領域内の一連の部分画像に対する一連の符号化フレームから、前記識別情報に基づいて、前記第1の領域内の一連の部分画像に対する一連の符号化フレームを選択する選択部と、
前記選択部によって選択された前記第1の領域内の一連の部分画像に対する一連の符号化フレームを前記第1の領域内の一連の部分画像に復号するとともに、前記指定部によって前記表示領域が指定された場合、前記第2の領域内の一連の部分画像に対する一連の符号化フレームを前記第2の領域内の一連の部分画像に復号する復号部と、
前記第1の領域内の一連の部分画像から前記表示領域内の第1の画像列を抽出するとともに、前記第2の領域内の一連の部分画像から前記表示領域内の第2の画像列を抽出する抽出部と、
前記抽出部によって抽出された前記第1の画像列の各画像と、前記第2の画像列の各画像とを、前記一連の画像内の同一画像どうしで結合する結合部と、
前記結合部の結合により得られた前記表示領域の画像列を出力する出力部と、
を有することを特徴とする復号装置。
(Supplementary note 8) A series of encoded frames for a series of partial images in a first area of a series of images, and a series of parts in a second area adjacent to the first area of the series of images. A series of encoded frames for the image, and identification information corresponding to the one given to at least one of the series of encoded frames for the series of partial images in the first or second region, A reception part to accept,
A designating unit for designating a display area from an area obtained by combining the first area and the second area;
Selecting a series of encoded frames for a series of partial images in the first area from a series of encoded frames for a series of partial images in the first and second areas based on the identification information And
A series of encoded frames for a series of partial images in the first area selected by the selection unit are decoded into a series of partial images in the first area, and the display area is designated by the designation unit A decoding unit that decodes a series of encoded frames for the series of partial images in the second region into a series of partial images in the second region;
A first image sequence in the display area is extracted from a series of partial images in the first area, and a second image sequence in the display area is extracted from a series of partial images in the second area. An extractor for extracting;
A combining unit that combines the images of the first image sequence extracted by the extraction unit and the images of the second image sequence with the same images in the series of images;
An output unit that outputs an image sequence of the display area obtained by combining the combining units;
A decoding device comprising:

(付記9)前記受付部は、
前記一連の画像を受け付けた装置が前記一連の画像を受け付けたときの前記装置の角度に関する情報を受け付け、
前記表示領域を前記角度に関する情報に応じて変換する変換部を有し、
前記抽出部は、
前記第1の領域内の一連の部分画像から前記変換部による変換後の表示領域内の第1の画像列を抽出するとともに、前記第2の領域内の一連の部分画像から前記変換後の表示領域内の第2の画像列を抽出し、
前記出力部は、
前記結合部の結合により得られた前記変換後の表示領域の画像列を出力することを特徴とする付記8に記載の復号装置。
(Supplementary note 9)
Receiving information about the angle of the device when the device receiving the series of images receives the series of images;
A conversion unit that converts the display area according to the information on the angle;
The extraction unit includes:
The first image sequence in the display area after conversion by the conversion unit is extracted from the series of partial images in the first area, and the display after conversion from the series of partial images in the second area Extracting a second image sequence in the region;
The output unit is
The decoding apparatus according to appendix 8, wherein an image sequence of the converted display area obtained by combining the combining units is output.

(付記10)一連の画像を符号化する符号化装置と符号化された前記一連の画像を復号する復号装置とを有する動画像処理システムであって、
前記符号化装置は、
前記一連の画像のいずれかの画像から、第1の領域内の画像と前記第1の領域に隣接する第2の領域内の画像とを抽出する抽出部と、
前記第1の領域内の画像を前記第1の領域に対する符号化フレームに符号化する第1の符号化部と、
前記第1の領域に対する符号化フレームを復号し、当該復号した復号画像と前記第2の領域内の画像とに基づいて、前記第2の領域内の画像を前記第2の領域に対する符号化フレームに符号化する第2の符号化部と、
前記第1または第2の領域の少なくともいずれか一方を示す識別情報を対応する符号化フレームに付与して、前記第1および第2の領域に対する各符号化フレームを、前記復号装置に出力する第1の出力部と、を有し、
前記復号装置は、
前記識別情報が付与された前記第1および第2の領域に対する各符号化フレームを受け付ける受付部と、
前記第1および第2の領域に対する各符号化フレームから、前記識別情報に基づいて、前記第1の領域に対する符号化フレームを選択する選択部と、
前記選択部によって選択された前記第1の領域に対する符号化フレームを復号画像に復号する復号部と、
前記復号部によって復号された復号画像を出力する第2の出力部と、
を有することを特徴とする動画像処理システム。
(Supplementary note 10) A moving image processing system having an encoding device for encoding a series of images and a decoding device for decoding the encoded series of images,
The encoding device includes:
An extraction unit that extracts an image in a first area and an image in a second area adjacent to the first area from any one of the series of images;
A first encoding unit that encodes an image in the first region into an encoded frame for the first region;
An encoded frame for the first region is decoded, and based on the decoded image and the image in the second region, the image in the second region is encoded into the second region. A second encoding unit for encoding
First, identification information indicating at least one of the first and second regions is assigned to a corresponding encoded frame, and each encoded frame for the first and second regions is output to the decoding device. 1 output unit,
The decoding device
A reception unit that receives each encoded frame for the first and second regions to which the identification information is assigned;
A selection unit that selects an encoded frame for the first region based on the identification information from each encoded frame for the first and second regions;
A decoding unit that decodes an encoded frame for the first region selected by the selection unit into a decoded image;
A second output unit that outputs a decoded image decoded by the decoding unit;
A moving image processing system comprising:

(付記11)コンピュータが、
一連の画像を記憶する記憶部を参照して、前記一連の画像のうちいずれかの画像から、第1の領域内の画像と前記第1の領域に隣接する第2の領域内の画像とを抽出し、
前記第1の領域内の画像を前記第1の領域に対する符号化フレームに符号化し、
前記いずれかの画像を符号化する場合、前記いずれかの画像の前の画像の前記第1の領域に対する符号化フレームのダミーフレームを、前記前の画像のうち前記第1の領域内の画像に基づいて、自符号化フレームで再生可能な特定の符号化フレームの出現間隔に含まれるフレーム数以下分生成し、
生成数分生成されたダミーフレームを、前記前の画像の前記第1の領域に対する符号化フレームの次の符号化フレームに設定し、
前記いずれかの画像の前記第1の領域に対する符号化フレームに先行する先行符号化フレーム群のうち前記いずれかの画像の前記第1の領域に対する符号化フレームから前記ダミーフレームの前記生成数分先行する先行符号化フレームによる画像と、前記いずれかの画像の前記第2の領域内の画像と、に基づいて、前記いずれかの画像の第2の領域内の画像を前記いずれかの画像の前記第2の領域に対する符号化フレームに符号化し、
前記第1および第2の領域に対する各符号化フレームと前記生成数分生成された前記ダミーフレームと前記ダミーフレームの生成数および設定位置を示す情報とを出力する、
処理を実行することを特徴とする符号化方法。
(Appendix 11) The computer
With reference to a storage unit that stores a series of images, an image in a first area and an image in a second area adjacent to the first area are selected from any one of the series of images. Extract and
Encoding an image in the first region into an encoded frame for the first region;
When encoding any one of the images, a dummy frame of the encoding frame for the first region of the image before the one of the images is changed to an image in the first region of the previous image. Based on the number of frames included in the appearance interval of a specific encoded frame that can be reproduced in the self-encoded frame,
The number of generated dummy frames is set to the next encoded frame of the encoded frame for the first region of the previous image,
The preceding encoded frame group preceding the encoded frame for the first region of any of the images is preceded by the number of generations of the dummy frame from the encoded frame for the first region of any of the images. An image in the second region of any one of the images based on the image by the preceding encoded frame and the image in the second region of any one of the images. Encoding into the encoded frame for the second region;
Outputting each encoded frame for the first and second regions, the dummy frames generated for the generation number, and information indicating the generation number and setting position of the dummy frames;
An encoding method characterized by executing processing.

(付記12)コンピュータが、
一連の画像のうち第1の領域内の一連の部分画像に対する一連の符号化フレームと、前記一連の画像のうち前記第1の領域に隣接する第2の領域内の一連の部分画像に対する一連の符号化フレームと、前記第1または第2の領域内の一連の部分画像に対する一連の符号化フレームの少なくともいずれか一方に付与された前記いずれか一方に対応する識別情報と、前記第1または第2の領域内の一連の部分画像に対する一連の符号化フレームのうち出力対象でない符号化フレームの数および位置を示す情報と、を受け付け、
前記第1および第2の領域内の一連の部分画像に対する一連の符号化フレームから、前記識別情報に基づいて、前記第1の領域内の一連の部分画像に対する一連の符号化フレームを選択し、
選択された一連の符号化フレームを一連の部分画像に復号し、
復号された前記一連の部分画像のうち、前記出力対象でない符号化フレームの数および位置を示す情報に基づいて、前記出力対象でない符号化フレームに対応する部分画像以外の他の部分画像を出力する、
処理を実行することを特徴とする復号方法。
(Supplementary note 12)
A series of encoded frames for a series of partial images in a first region of the series of images, and a series of sequences for a series of partial images in a second region adjacent to the first region of the series of images. An encoded frame, identification information corresponding to one of the series of encoded frames for the series of partial images in the first or second region, and the first or second Receiving information indicating the number and position of non-output encoded frames among a series of encoded frames for a series of partial images in the area of 2,
Selecting a series of encoded frames for a series of partial images in the first area from a series of encoded frames for a series of partial images in the first and second areas, based on the identification information;
Decoding a selected series of encoded frames into a series of partial images;
Based on the information indicating the number and position of the encoded frames that are not the output target, the other partial images other than the partial images corresponding to the encoded frames that are not the output target are output from the series of decoded partial images. ,
A decoding method characterized by executing processing.

(付記13)コンピュータが、
一連の画像のうち第1の領域内の一連の部分画像に対する一連の符号化フレームと、前記一連の画像のうち前記第1の領域に隣接する第2の領域内の一連の部分画像に対する一連の符号化フレームと、前記第1または第2の領域内の一連の部分画像に対する一連の符号化フレームの少なくともいずれか一方に付与された前記いずれか一方に対応する識別情報と、を受け付け、
前記第1の領域と前記第2の領域とを結合した領域から表示領域を指定し、
前記第1および第2の領域内の一連の部分画像に対する一連の符号化フレームから、前記識別情報に基づいて、前記第1の領域内の一連の部分画像に対する一連の符号化フレームを選択し、
選択された前記第1の領域内の一連の部分画像に対する一連の符号化フレームを前記第1の領域内の一連の部分画像に復号するとともに、前記表示領域が指定された場合、前記第2の領域内の一連の部分画像に対する一連の符号化フレームを前記第2の領域内の一連の部分画像に復号し、
前記第1の領域内の一連の部分画像から前記表示領域内の第1の画像列を抽出するとともに、前記第2の領域内の一連の部分画像から前記表示領域内の第2の画像列を抽出し、
抽出された前記第1の画像列の各画像と、前記第2の画像列の各画像とを、前記一連の画像内の同一画像どうしで結合し、
結合により得られた前記表示領域の画像列を出力する、
処理を実行することを特徴とする復号方法。
(Supplementary note 13)
A series of encoded frames for a series of partial images in a first region of the series of images, and a series of sequences for a series of partial images in a second region adjacent to the first region of the series of images. Receiving an encoded frame and identification information corresponding to at least one of a series of encoded frames for a series of partial images in the first or second region;
A display area is designated from an area obtained by combining the first area and the second area,
Selecting a series of encoded frames for a series of partial images in the first area from a series of encoded frames for a series of partial images in the first and second areas, based on the identification information;
When a series of encoded frames for a series of partial images in the selected first area is decoded into a series of partial images in the first area, and when the display area is designated, Decoding a series of encoded frames for a series of partial images in a region into a series of partial images in the second region;
A first image sequence in the display area is extracted from a series of partial images in the first area, and a second image sequence in the display area is extracted from a series of partial images in the second area. Extract and
Combining the extracted images of the first image sequence and the images of the second image sequence with the same image in the series of images,
Outputting an image sequence of the display area obtained by combining,
A decoding method characterized by executing processing.

(付記14)コンピュータに、
一連の画像を記憶する記憶部を参照して、前記一連の画像のうちいずれかの画像から、第1の領域内の画像と前記第1の領域に隣接する第2の領域内の画像とを抽出し、
前記第1の領域内の画像を前記第1の領域に対する符号化フレームに符号化し、
前記いずれかの画像を符号化する場合、前記いずれかの画像の前の画像の前記第1の領域に対する符号化フレームのダミーフレームを、前記前の画像のうち前記第1の領域内の画像に基づいて、自符号化フレームで再生可能な特定の符号化フレームの出現間隔に含まれるフレーム数以下分生成し、
生成数分生成されたダミーフレームを、前記前の画像の前記第1の領域に対する符号化フレームの次の符号化フレームに設定し、
前記いずれかの画像の前記第1の領域に対する符号化フレームに先行する先行符号化フレーム群のうち前記いずれかの画像の前記第1の領域に対する符号化フレームから前記ダミーフレームの前記生成数分先行する先行符号化フレームによる画像と、前記いずれかの画像の前記第2の領域内の画像と、に基づいて、前記いずれかの画像の第2の領域内の画像を前記いずれかの画像の前記第2の領域に対する符号化フレームに符号化し、
前記第1および第2の領域に対する各符号化フレームと前記生成数分生成された前記ダミーフレームと前記ダミーフレームの生成数および設定位置を示す情報とを出力する、
処理を実行させることを特徴とする符号化プログラム。
(Supplementary note 14)
With reference to a storage unit that stores a series of images, an image in a first area and an image in a second area adjacent to the first area are selected from any one of the series of images. Extract and
Encoding an image in the first region into an encoded frame for the first region;
When encoding any one of the images, a dummy frame of the encoding frame for the first region of the image before the one of the images is changed to an image in the first region of the previous image. Based on the number of frames included in the appearance interval of a specific encoded frame that can be reproduced in the self-encoded frame,
The number of generated dummy frames is set to the next encoded frame of the encoded frame for the first region of the previous image,
The preceding encoded frame group preceding the encoded frame for the first region of any of the images is preceded by the number of generations of the dummy frame from the encoded frame for the first region of any of the images. An image in the second region of any one of the images based on the image by the preceding encoded frame and the image in the second region of any one of the images. Encoding into the encoded frame for the second region;
Outputting each encoded frame for the first and second regions, the dummy frames generated for the generation number, and information indicating the generation number and setting position of the dummy frames;
An encoding program for executing a process.

(付記15)コンピュータに、
一連の画像のうち第1の領域内の一連の部分画像に対する一連の符号化フレームと、前記一連の画像のうち前記第1の領域に隣接する第2の領域内の一連の部分画像に対する一連の符号化フレームと、前記第1または第2の領域内の一連の部分画像に対する一連の符号化フレームの少なくともいずれか一方に付与された前記いずれか一方に対応する識別情報と、前記第1または第2の領域内の一連の部分画像に対する一連の符号化フレームのうち出力対象でない符号化フレームの数および位置を示す情報と、を受け付け、
前記第1および第2の領域内の一連の部分画像に対する一連の符号化フレームから、前記識別情報に基づいて、前記第1の領域内の一連の部分画像に対する一連の符号化フレームを選択し、
選択された一連の符号化フレームを一連の部分画像に復号し、
復号された前記一連の部分画像のうち、前記出力対象でない符号化フレームの数および位置を示す情報に基づいて、前記出力対象でない符号化フレームに対応する部分画像以外の他の部分画像を出力する、
処理を実行させることを特徴とする復号プログラム。
(Supplementary note 15)
A series of encoded frames for a series of partial images in a first region of the series of images, and a series of sequences for a series of partial images in a second region adjacent to the first region of the series of images. An encoded frame, identification information corresponding to one of the series of encoded frames for the series of partial images in the first or second region, and the first or second Receiving information indicating the number and position of non-output encoded frames among a series of encoded frames for a series of partial images in the area of 2,
Selecting a series of encoded frames for a series of partial images in the first area from a series of encoded frames for a series of partial images in the first and second areas, based on the identification information;
Decoding a selected series of encoded frames into a series of partial images;
Based on the information indicating the number and position of the encoded frames that are not the output target, the other partial images other than the partial images corresponding to the encoded frames that are not the output target are output from the series of decoded partial images. ,
A decryption program for executing a process.

(付記16)コンピュータに、
一連の画像のうち第1の領域内の一連の部分画像に対する一連の符号化フレームと、前記一連の画像のうち前記第1の領域に隣接する第2の領域内の一連の部分画像に対する一連の符号化フレームと、前記第1または第2の領域内の一連の部分画像に対する一連の符号化フレームの少なくともいずれか一方に付与された前記いずれか一方に対応する識別情報と、を受け付け、
前記第1の領域と前記第2の領域とを結合した領域から表示領域を指定し、
前記第1および第2の領域内の一連の部分画像に対する一連の符号化フレームから、前記識別情報に基づいて、前記第1の領域内の一連の部分画像に対する一連の符号化フレームを選択し、
選択された前記第1の領域内の一連の部分画像に対する一連の符号化フレームを前記第1の領域内の一連の部分画像に復号するとともに、前記表示領域が指定された場合、前記第2の領域内の一連の部分画像に対する一連の符号化フレームを前記第2の領域内の一連の部分画像に復号し、
前記第1の領域内の一連の部分画像から前記表示領域内の第1の画像列を抽出するとともに、前記第2の領域内の一連の部分画像から前記表示領域内の第2の画像列を抽出し、
抽出された前記第1の画像列の各画像と、前記第2の画像列の各画像とを、前記一連の画像内の同一画像どうしで結合し、
結合により得られた前記表示領域の画像列を出力する、
処理を実行させることを特徴とする復号プログラム。
(Supplementary note 16)
A series of encoded frames for a series of partial images in a first region of the series of images, and a series of sequences for a series of partial images in a second region adjacent to the first region of the series of images. Receiving an encoded frame and identification information corresponding to at least one of a series of encoded frames for a series of partial images in the first or second region;
A display area is designated from an area obtained by combining the first area and the second area,
Selecting a series of encoded frames for a series of partial images in the first area from a series of encoded frames for a series of partial images in the first and second areas, based on the identification information;
When a series of encoded frames for a series of partial images in the selected first area is decoded into a series of partial images in the first area, and when the display area is designated, Decoding a series of encoded frames for a series of partial images in a region into a series of partial images in the second region;
A first image sequence in the display area is extracted from a series of partial images in the first area, and a second image sequence in the display area is extracted from a series of partial images in the second area. Extract and
Combining the extracted images of the first image sequence and the images of the second image sequence with the same image in the series of images,
Outputting an image sequence of the display area obtained by combining,
A decryption program for executing a process.

101 符号化装置
400 復号装置
501 受付部
502 取得部
503 決定部
504 抽出部
505 第1符号化部
506 第2符号化部
507 生成部
508 設定部
509 出力部
521 受付部
522 選択部
523 指定部
524 変換部
525 復号部
526 抽出部
527 結合部
528 出力部
DESCRIPTION OF SYMBOLS 101 Coding apparatus 400 Decoding apparatus 501 Reception part 502 Acquisition part 503 Determination part 504 Extraction part 505 1st encoding part 506 2nd encoding part 507 Generation part 508 Setting part 509 Output part 521 Reception part 522 Selection part 523 Specification part 524 Conversion unit 525 Decoding unit 526 Extraction unit 527 Coupling unit 528 Output unit

Claims (14)

一連の画像のいずれかの画像から、第1の領域内の画像と前記第1の領域に隣接する第2の領域内の画像とを抽出する抽出部と、
前記第1の領域内の画像を前記第1の領域に対する符号化フレームに符号化する第1の符号化部と、
前記第1の符号化部が前記いずれかの画像を符号化する場合、前記いずれかの画像の前の画像の前記第1の領域に対する符号化フレームのダミーフレームを、前記前の画像のうち前記第1の領域内の画像に基づいて、自符号化フレームで再生可能な特定の符号化フレームの出現間隔に含まれるフレーム数以下分生成する生成部と、
前記生成部によって生成数分生成されたダミーフレームを、前記前の画像の前記第1の領域に対する符号化フレームの次の符号化フレームに設定する設定部と、
前記いずれかの画像の前記第1の領域に対する符号化フレームに先行する先行符号化フレーム群のうち前記いずれかの画像の前記第1の領域に対する符号化フレームから前記ダミーフレームの前記生成数分先行する先行符号化フレームによる画像と、前記いずれかの画像の前記第2の領域内の画像と、に基づいて、前記いずれかの画像の第2の領域内の画像を前記いずれかの画像の前記第2の領域に対する符号化フレームに符号化する第2の符号化部と、
前記第1および第2の領域に対する各符号化フレームと前記生成数分生成された前記ダミーフレームと前記ダミーフレームの生成数および設定位置を示す情報とを出力する出力部と、
を有することを特徴とする符号化装置。
An extraction unit that extracts an image in the first area and an image in the second area adjacent to the first area from any one of the series of images;
A first encoding unit that encodes an image in the first region into an encoded frame for the first region;
When the first encoding unit encodes any one of the images, a dummy frame of an encoding frame for the first region of the previous image of the any image is set as the dummy frame of the previous image. Based on the image in the first region, a generation unit that generates a number equal to or less than the number of frames included in the appearance interval of a specific encoded frame that can be reproduced with the self-encoded frame;
A setting unit configured to set the dummy frames generated by the generation unit by the number of generations as the next encoded frame of the encoded frame for the first region of the previous image;
The preceding encoded frame group preceding the encoded frame for the first region of any of the images is preceded by the number of generations of the dummy frame from the encoded frame for the first region of any of the images. An image in the second region of any one of the images based on the image by the preceding encoded frame and the image in the second region of any one of the images. A second encoding unit that encodes an encoded frame for the second region;
An output unit for outputting each encoded frame for the first and second regions, the dummy frames generated for the generation number, and information indicating the generation number and setting position of the dummy frames;
An encoding device comprising:
前記生成部は、
前記ダミーフレームを、前記第1の符号化部が符号化する符号化フレーム群のうち複数の参照先を有する符号化フレームが連続して存在する数より1多い数分、生成することを特徴とする請求項1に記載の符号化装置。
The generator is
The dummy frames are generated by a number one more than the number of encoded frames having a plurality of reference destinations in the encoded frame group encoded by the first encoding unit. The encoding device according to claim 1.
前記生成部は、
前記第2の符号化部が前記いずれかの画像を符号化する場合、前記いずれかの画像の前の画像の前記第2の領域に対する符号化フレームのダミーフレームを、前記前の画像のうち前記第2の領域内の画像に基づいて、自符号化フレームで再生可能な特定の符号化フレームの出現間隔に含まれるフレーム数以下分生成し、
前記設定部は、
前記生成部によって生成数分生成されたダミーフレームを、前記前の画像の前記第2の領域に対する符号化フレームの次の符号化フレームに設定し、
前記第2の符号化部は、
前記いずれかの画像の前記第1の領域に対する符号化フレームに後続する後続符号化フレーム群のうち前記いずれかの画像の前記第1の領域に対する符号化フレームから前記ダミーフレームの生成数分後続する後続符号化フレームによる画像と、前記いずれかの画像の前記第2の領域内の画像と、に基づいて、前記いずれかの画像の第2の領域内の画像を前記いずれかの画像の前記第2の領域に対する符号化フレームに符号化し、
前記出力部は、
さらに、前記生成数分生成された前記ダミーフレームと前記ダミーフレームの生成数および設定位置を示す情報とを出力することを特徴とする請求項1に記載の符号化装置。
The generator is
When the second encoding unit encodes any one of the images, a dummy frame of an encoded frame for the second region of the previous image of the any image is set as the dummy frame of the previous image. Based on the image in the second region, the number of frames included in the appearance interval of a specific encoded frame that can be reproduced with the self-encoded frame is generated,
The setting unit
The dummy frames generated by the number of generations by the generation unit are set as the next encoded frame of the encoded frame for the second region of the previous image,
The second encoding unit includes:
The number of generations of the dummy frames follows from the encoded frame for the first region of the image in the subsequent encoded frame group following the encoded frame for the first region of the image. Based on the image in the subsequent encoded frame and the image in the second region of any one of the images, the image in the second region of any one of the images is Encode into an encoded frame for region 2;
The output unit is
2. The encoding apparatus according to claim 1, further comprising: outputting the dummy frames generated for the number of generations and information indicating the generation numbers and setting positions of the dummy frames.
前記一連の画像を受け付けたときの自装置の角度に関する情報を取得する取得部と、
前記取得部によって取得された前記自装置の角度に関する情報に応じて、前記第1および第2の領域の位置情報を決定する決定部と、を有し、
前記抽出部は、
前記いずれかの画像から、前記位置情報に従った前記第1の領域内の画像と前記位置情報に従った前記第2の領域内の画像とを抽出することを特徴とする請求項1〜3のいずれか一つに記載の符号化装置。
An acquisition unit that acquires information about the angle of the device when receiving the series of images;
A determination unit that determines position information of the first and second regions according to information on the angle of the device acquired by the acquisition unit;
The extraction unit includes:
The image in the first area according to the position information and the image in the second area according to the position information are extracted from any one of the images. The encoding device according to any one of the above.
一連の画像のうち第1の領域内の一連の部分画像に対する一連の符号化フレームと、前記一連の画像のうち前記第1の領域に隣接する第2の領域内の一連の部分画像に対する一連の符号化フレームと、前記第1または第2の領域内の一連の部分画像に対する一連の符号化フレームの少なくともいずれか一方に付与された前記いずれか一方に対応する識別情報と、前記第1または第2の領域内の一連の部分画像に対する一連の符号化フレームのうち出力対象でない符号化フレームの数および位置を示す情報と、を受け付ける受付部と、
前記第1および第2の領域内の一連の部分画像に対する一連の符号化フレームから、前記識別情報に基づいて、前記第1の領域内の一連の部分画像に対する一連の符号化フレームを選択する選択部と、
前記選択部によって選択された一連の符号化フレームを一連の部分画像に復号する復号部と、
前記復号部によって復号された前記一連の部分画像のうち、前記出力対象でない符号化フレームの数および位置を示す情報に基づいて、前記出力対象でない符号化フレームに対応する部分画像以外の他の部分画像を出力する出力部と、
を有することを特徴とする復号装置。
A series of encoded frames for a series of partial images in a first region of the series of images, and a series of sequences for a series of partial images in a second region adjacent to the first region of the series of images. An encoded frame, identification information corresponding to one of the series of encoded frames for the series of partial images in the first or second region, and the first or second A reception unit that receives information indicating the number and position of encoded frames that are not to be output among a series of encoded frames for a series of partial images in the region of 2;
Selecting a series of encoded frames for a series of partial images in the first area from a series of encoded frames for a series of partial images in the first and second areas based on the identification information And
A decoding unit for decoding a series of encoded frames selected by the selection unit into a series of partial images;
Of the series of partial images decoded by the decoding unit, other parts other than the partial images corresponding to the encoded frames that are not the output target based on the information indicating the number and position of the encoded frames that are not the output target An output unit for outputting an image;
A decoding device comprising:
一連の画像のうち第1の領域内の一連の部分画像に対する一連の符号化フレームと、前記一連の画像のうち前記第1の領域に隣接する第2の領域内の一連の部分画像に対する一連の符号化フレームと、前記第1または第2の領域内の一連の部分画像に対する一連の符号化フレームの少なくともいずれか一方に付与された前記いずれか一方に対応する識別情報と、を受け付ける受付部と、
前記第1の領域と前記第2の領域とを結合した領域から表示領域を指定する指定部と、
前記第1および第2の領域内の一連の部分画像に対する一連の符号化フレームから、前記識別情報に基づいて、前記第1の領域内の一連の部分画像に対する一連の符号化フレームを選択する選択部と、
前記選択部によって選択された前記第1の領域内の一連の部分画像に対する一連の符号化フレームを前記第1の領域内の一連の部分画像に復号するとともに、前記指定部によって前記表示領域が指定された場合、前記第2の領域内の一連の部分画像に対する一連の符号化フレームを前記第2の領域内の一連の部分画像に復号する復号部と、
前記第1の領域内の一連の部分画像から前記表示領域内の第1の画像列を抽出するとともに、前記第2の領域内の一連の部分画像から前記表示領域内の第2の画像列を抽出する抽出部と、
前記抽出部によって抽出された前記第1の画像列の各画像と、前記第2の画像列の各画像とを、前記一連の画像内の同一画像どうしで結合する結合部と、
前記結合部の結合により得られた前記表示領域の画像列を出力する出力部と、
を有することを特徴とする復号装置。
A series of encoded frames for a series of partial images in a first region of the series of images, and a series of sequences for a series of partial images in a second region adjacent to the first region of the series of images. A receiving unit that receives the encoded frame and identification information corresponding to at least one of the series of encoded frames for the series of partial images in the first or second region; ,
A designating unit for designating a display area from an area obtained by combining the first area and the second area;
Selecting a series of encoded frames for a series of partial images in the first area from a series of encoded frames for a series of partial images in the first and second areas based on the identification information And
A series of encoded frames for a series of partial images in the first area selected by the selection unit are decoded into a series of partial images in the first area, and the display area is designated by the designation unit A decoding unit that decodes a series of encoded frames for the series of partial images in the second region into a series of partial images in the second region;
A first image sequence in the display area is extracted from a series of partial images in the first area, and a second image sequence in the display area is extracted from a series of partial images in the second area. An extractor for extracting;
A combining unit that combines the images of the first image sequence extracted by the extraction unit and the images of the second image sequence with the same images in the series of images;
An output unit that outputs an image sequence of the display area obtained by combining the combining units;
A decoding device comprising:
前記受付部は、
前記一連の画像を受け付けた装置が前記一連の画像を受け付けたときの前記装置の角度に関する情報を受け付け、
前記表示領域を前記角度に関する情報に応じて変換する変換部を有し、
前記抽出部は、
前記第1の領域内の一連の部分画像から前記変換部による変換後の表示領域内の第1の画像列を抽出するとともに、前記第2の領域内の一連の部分画像から前記変換後の表示領域内の第2の画像列を抽出し、
前記出力部は、
前記結合部の結合により得られた前記変換後の表示領域の画像列を出力することを特徴とする請求項6に記載の復号装置。
The reception unit
Receiving information about the angle of the device when the device receiving the series of images receives the series of images;
A conversion unit that converts the display area according to the information on the angle;
The extraction unit includes:
The first image sequence in the display area after conversion by the conversion unit is extracted from the series of partial images in the first area, and the display after conversion from the series of partial images in the second area Extracting a second image sequence in the region;
The output unit is
The decoding apparatus according to claim 6, wherein the image sequence of the display area after conversion obtained by combining the combining units is output.
一連の画像を符号化する符号化装置と符号化された前記一連の画像を復号する復号装置とを有する動画像処理システムであって、
前記符号化装置は、
前記一連の画像のいずれかの画像から、第1の領域内の画像と前記第1の領域に隣接する第2の領域内の画像とを抽出する抽出部と、
前記第1の領域内の画像を前記第1の領域に対する符号化フレームに符号化する第1の符号化部と、
前記第1の領域に対する符号化フレームの画像と前記第2の領域内の画像とに基づいて、前記第2の領域内の画像を前記第2の領域に対する符号化フレームに符号化する第2の符号化部と、
前記第1または第2の領域の少なくともいずれか一方を示す識別情報を対応する符号化フレームに付与して、前記第1および第2の領域に対する各符号化フレームを、前記復号装置に出力する第1の出力部と、を有し、
前記復号装置は、
前記識別情報が付与された前記第1および第2の領域に対する各符号化フレームを受け付ける受付部と、
前記第1および第2の領域に対する各符号化フレームから、前記識別情報に基づいて、前記第1の領域に対する符号化フレームを選択する選択部と、
前記選択部によって選択された前記第1の領域に対する符号化フレームを復号画像に復号する復号部と、
前記復号部によって復号された復号画像を出力する第2の出力部と、
を有することを特徴とする動画像処理システム。
A video processing system having an encoding device for encoding a series of images and a decoding device for decoding the encoded series of images,
The encoding device includes:
An extraction unit that extracts an image in a first area and an image in a second area adjacent to the first area from any one of the series of images;
A first encoding unit that encodes an image in the first region into an encoded frame for the first region;
A second encoding unit that encodes an image in the second region into an encoded frame for the second region based on an image of the encoded frame for the first region and an image in the second region; An encoding unit;
First, identification information indicating at least one of the first and second regions is assigned to a corresponding encoded frame, and each encoded frame for the first and second regions is output to the decoding device. 1 output unit,
The decoding device
A reception unit that receives each encoded frame for the first and second regions to which the identification information is assigned;
A selection unit that selects an encoded frame for the first region based on the identification information from each encoded frame for the first and second regions;
A decoding unit that decodes an encoded frame for the first region selected by the selection unit into a decoded image;
A second output unit that outputs a decoded image decoded by the decoding unit;
A moving image processing system comprising:
コンピュータが、
一連の画像を記憶する記憶部を参照して、前記一連の画像のうちいずれかの画像から、第1の領域内の画像と前記第1の領域に隣接する第2の領域内の画像とを抽出し、
前記第1の領域内の画像を前記第1の領域に対する符号化フレームに符号化し、
前記いずれかの画像を符号化する場合、前記いずれかの画像の前の画像の前記第1の領域に対する符号化フレームのダミーフレームを、前記前の画像のうち前記第1の領域内の画像に基づいて、自符号化フレームで再生可能な特定の符号化フレームの出現間隔に含まれるフレーム数以下分生成し、
生成数分生成されたダミーフレームを、前記前の画像の前記第1の領域に対する符号化フレームの次の符号化フレームに設定し、
前記いずれかの画像の前記第1の領域に対する符号化フレームに先行する先行符号化フレーム群のうち前記いずれかの画像の前記第1の領域に対する符号化フレームから前記ダミーフレームの前記生成数分先行する先行符号化フレームによる画像と、前記いずれかの画像の前記第2の領域内の画像と、に基づいて、前記いずれかの画像の第2の領域内の画像を前記いずれかの画像の前記第2の領域に対する符号化フレームに符号化し、
前記第1および第2の領域に対する各符号化フレームと前記生成数分生成された前記ダミーフレームと前記ダミーフレームの生成数および設定位置を示す情報とを出力する、
処理を実行することを特徴とする符号化方法。
Computer
With reference to a storage unit that stores a series of images, an image in a first area and an image in a second area adjacent to the first area are selected from any one of the series of images. Extract and
Encoding an image in the first region into an encoded frame for the first region;
When encoding any one of the images, a dummy frame of the encoding frame for the first region of the image before the one of the images is changed to an image in the first region of the previous image. Based on the number of frames included in the appearance interval of a specific encoded frame that can be reproduced in the self-encoded frame,
The number of generated dummy frames is set to the next encoded frame of the encoded frame for the first region of the previous image,
The preceding encoded frame group preceding the encoded frame for the first region of any of the images is preceded by the number of generations of the dummy frame from the encoded frame for the first region of any of the images. An image in the second region of any one of the images based on the image by the preceding encoded frame and the image in the second region of any one of the images. Encoding into the encoded frame for the second region;
Outputting each encoded frame for the first and second regions, the dummy frames generated for the generation number, and information indicating the generation number and setting position of the dummy frames;
An encoding method characterized by executing processing.
コンピュータが、
一連の画像のうち第1の領域内の一連の部分画像に対する一連の符号化フレームと、前記一連の画像のうち前記第1の領域に隣接する第2の領域内の一連の部分画像に対する一連の符号化フレームと、前記第1または第2の領域内の一連の部分画像に対する一連の符号化フレームの少なくともいずれか一方に付与された前記いずれか一方に対応する識別情報と、前記第1または第2の領域内の一連の部分画像に対する一連の符号化フレームのうち出力対象でない符号化フレームの数および位置を示す情報と、を受け付け、
前記第1および第2の領域内の一連の部分画像に対する一連の符号化フレームから、前記識別情報に基づいて、前記第1の領域内の一連の部分画像に対する一連の符号化フレームを選択し、
選択された一連の符号化フレームを一連の部分画像に復号し、
復号された前記一連の部分画像のうち、前記出力対象でない符号化フレームの数および位置を示す情報に基づいて、前記出力対象でない符号化フレームに対応する部分画像以外の他の部分画像を出力する、
処理を実行することを特徴とする復号方法。
Computer
A series of encoded frames for a series of partial images in a first region of the series of images, and a series of sequences for a series of partial images in a second region adjacent to the first region of the series of images. An encoded frame, identification information corresponding to one of the series of encoded frames for the series of partial images in the first or second region, and the first or second Receiving information indicating the number and position of non-output encoded frames among a series of encoded frames for a series of partial images in the area of 2,
Selecting a series of encoded frames for a series of partial images in the first area from a series of encoded frames for a series of partial images in the first and second areas, based on the identification information;
Decoding a selected series of encoded frames into a series of partial images;
Based on the information indicating the number and position of the encoded frames that are not the output target, the other partial images other than the partial images corresponding to the encoded frames that are not the output target are output from the series of decoded partial images. ,
A decoding method characterized by executing processing.
コンピュータが、
一連の画像のうち第1の領域内の一連の部分画像に対する一連の符号化フレームと、前記一連の画像のうち前記第1の領域に隣接する第2の領域内の一連の部分画像に対する一連の符号化フレームと、前記第1または第2の領域内の一連の部分画像に対する一連の符号化フレームの少なくともいずれか一方に付与された前記いずれか一方に対応する識別情報と、を受け付け、
前記第1の領域と前記第2の領域とを結合した領域から表示領域を指定し、
前記第1および第2の領域内の一連の部分画像に対する一連の符号化フレームから、前記識別情報に基づいて、前記第1の領域内の一連の部分画像に対する一連の符号化フレームを選択し、
選択された前記第1の領域内の一連の部分画像に対する一連の符号化フレームを前記第1の領域内の一連の部分画像に復号するとともに、前記表示領域が指定された場合、前記第2の領域内の一連の部分画像に対する一連の符号化フレームを前記第2の領域内の一連の部分画像に復号し、
前記第1の領域内の一連の部分画像から前記表示領域内の第1の画像列を抽出するとともに、前記第2の領域内の一連の部分画像から前記表示領域内の第2の画像列を抽出し、
抽出された前記第1の画像列の各画像と、前記第2の画像列の各画像とを、前記一連の画像内の同一画像どうしで結合し、
結合により得られた前記表示領域の画像列を出力する、
処理を実行することを特徴とする復号方法。
Computer
A series of encoded frames for a series of partial images in a first region of the series of images, and a series of sequences for a series of partial images in a second region adjacent to the first region of the series of images. Receiving an encoded frame and identification information corresponding to at least one of a series of encoded frames for a series of partial images in the first or second region;
A display area is designated from an area obtained by combining the first area and the second area,
Selecting a series of encoded frames for a series of partial images in the first area from a series of encoded frames for a series of partial images in the first and second areas, based on the identification information;
When a series of encoded frames for a series of partial images in the selected first area is decoded into a series of partial images in the first area, and when the display area is designated, Decoding a series of encoded frames for a series of partial images in a region into a series of partial images in the second region;
A first image sequence in the display area is extracted from a series of partial images in the first area, and a second image sequence in the display area is extracted from a series of partial images in the second area. Extract and
Combining the extracted images of the first image sequence and the images of the second image sequence with the same image in the series of images,
Outputting an image sequence of the display area obtained by combining,
A decoding method characterized by executing processing.
コンピュータに、
一連の画像を記憶する記憶部を参照して、前記一連の画像のうちいずれかの画像から、第1の領域内の画像と前記第1の領域に隣接する第2の領域内の画像とを抽出し、
前記第1の領域内の画像を前記第1の領域に対する符号化フレームに符号化し、
前記いずれかの画像を符号化する場合、前記いずれかの画像の前の画像の前記第1の領域に対する符号化フレームのダミーフレームを、前記前の画像のうち前記第1の領域内の画像に基づいて、自符号化フレームで再生可能な特定の符号化フレームの出現間隔に含まれるフレーム数以下分生成し、
生成数分生成されたダミーフレームを、前記前の画像の前記第1の領域に対する符号化フレームの次の符号化フレームに設定し、
前記いずれかの画像の前記第1の領域に対する符号化フレームに先行する先行符号化フレーム群のうち前記いずれかの画像の前記第1の領域に対する符号化フレームから前記ダミーフレームの前記生成数分先行する先行符号化フレームによる画像と、前記いずれかの画像の前記第2の領域内の画像と、に基づいて、前記いずれかの画像の第2の領域内の画像を前記いずれかの画像の前記第2の領域に対する符号化フレームに符号化し、
前記第1および第2の領域に対する各符号化フレームと前記生成数分生成された前記ダミーフレームと前記ダミーフレームの生成数および設定位置を示す情報とを出力する、
処理を実行させることを特徴とする符号化プログラム。
On the computer,
With reference to a storage unit that stores a series of images, an image in a first area and an image in a second area adjacent to the first area are selected from any one of the series of images. Extract and
Encoding an image in the first region into an encoded frame for the first region;
When encoding any one of the images, a dummy frame of the encoding frame for the first region of the image before the one of the images is changed to an image in the first region of the previous image. Based on the number of frames included in the appearance interval of a specific encoded frame that can be reproduced in the self-encoded frame,
The number of generated dummy frames is set to the next encoded frame of the encoded frame for the first region of the previous image,
The preceding encoded frame group preceding the encoded frame for the first region of any of the images is preceded by the number of generations of the dummy frame from the encoded frame for the first region of any of the images. An image in the second region of any one of the images based on the image by the preceding encoded frame and the image in the second region of any one of the images. Encoding into the encoded frame for the second region;
Outputting each encoded frame for the first and second regions, the dummy frames generated for the generation number, and information indicating the generation number and setting position of the dummy frames;
An encoding program for executing a process.
コンピュータに、
一連の画像のうち第1の領域内の一連の部分画像に対する一連の符号化フレームと、前記一連の画像のうち前記第1の領域に隣接する第2の領域内の一連の部分画像に対する一連の符号化フレームと、前記第1または第2の領域内の一連の部分画像に対する一連の符号化フレームの少なくともいずれか一方に付与された前記いずれか一方に対応する識別情報と、前記第1または第2の領域内の一連の部分画像に対する一連の符号化フレームのうち出力対象でない符号化フレームの数および位置を示す情報と、を受け付け、
前記第1および第2の領域内の一連の部分画像に対する一連の符号化フレームから、前記識別情報に基づいて、前記第1の領域内の一連の部分画像に対する一連の符号化フレームを選択し、
選択された一連の符号化フレームを一連の部分画像に復号し、
復号された前記一連の部分画像のうち、前記出力対象でない符号化フレームの数および位置を示す情報に基づいて、前記出力対象でない符号化フレームに対応する部分画像以外の他の部分画像を出力する、
処理を実行させることを特徴とする復号プログラム。
On the computer,
A series of encoded frames for a series of partial images in a first region of the series of images, and a series of sequences for a series of partial images in a second region adjacent to the first region of the series of images. An encoded frame, identification information corresponding to one of the series of encoded frames for the series of partial images in the first or second region, and the first or second Receiving information indicating the number and position of non-output encoded frames among a series of encoded frames for a series of partial images in the area of 2,
Selecting a series of encoded frames for a series of partial images in the first area from a series of encoded frames for a series of partial images in the first and second areas, based on the identification information;
Decoding a selected series of encoded frames into a series of partial images;
Based on the information indicating the number and position of the encoded frames that are not the output target, the other partial images other than the partial images corresponding to the encoded frames that are not the output target are output from the series of decoded partial images. ,
A decryption program for executing a process.
コンピュータに、
一連の画像のうち第1の領域内の一連の部分画像に対する一連の符号化フレームと、前記一連の画像のうち前記第1の領域に隣接する第2の領域内の一連の部分画像に対する一連の符号化フレームと、前記第1または第2の領域内の一連の部分画像に対する一連の符号化フレームの少なくともいずれか一方に付与された前記いずれか一方に対応する識別情報と、を受け付け、
前記第1の領域と前記第2の領域とを結合した領域から表示領域を指定し、
前記第1および第2の領域内の一連の部分画像に対する一連の符号化フレームから、前記識別情報に基づいて、前記第1の領域内の一連の部分画像に対する一連の符号化フレームを選択し、
選択された前記第1の領域内の一連の部分画像に対する一連の符号化フレームを前記第1の領域内の一連の部分画像に復号するとともに、前記表示領域が指定された場合、前記第2の領域内の一連の部分画像に対する一連の符号化フレームを前記第2の領域内の一連の部分画像に復号し、
前記第1の領域内の一連の部分画像から前記表示領域内の第1の画像列を抽出するとともに、前記第2の領域内の一連の部分画像から前記表示領域内の第2の画像列を抽出し、
抽出された前記第1の画像列の各画像と、前記第2の画像列の各画像とを、前記一連の画像内の同一画像どうしで結合し、
結合により得られた前記表示領域の画像列を出力する、
処理を実行させることを特徴とする復号プログラム。
On the computer,
A series of encoded frames for a series of partial images in a first region of the series of images, and a series of sequences for a series of partial images in a second region adjacent to the first region of the series of images. Receiving an encoded frame and identification information corresponding to at least one of a series of encoded frames for a series of partial images in the first or second region;
A display area is designated from an area obtained by combining the first area and the second area,
Selecting a series of encoded frames for a series of partial images in the first area from a series of encoded frames for a series of partial images in the first and second areas, based on the identification information;
When a series of encoded frames for a series of partial images in the selected first area is decoded into a series of partial images in the first area, and when the display area is designated, Decoding a series of encoded frames for a series of partial images in a region into a series of partial images in the second region;
A first image sequence in the display area is extracted from a series of partial images in the first area, and a second image sequence in the display area is extracted from a series of partial images in the second area. Extract and
Combining the extracted images of the first image sequence and the images of the second image sequence with the same image in the series of images,
Outputting an image sequence of the display area obtained by combining,
A decryption program for executing a process.
JP2011286978A 2011-12-27 2011-12-27 Encoding device, decoding device, moving image processing system, encoding method, decoding method, encoding program, and decoding program Expired - Fee Related JP5915168B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011286978A JP5915168B2 (en) 2011-12-27 2011-12-27 Encoding device, decoding device, moving image processing system, encoding method, decoding method, encoding program, and decoding program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011286978A JP5915168B2 (en) 2011-12-27 2011-12-27 Encoding device, decoding device, moving image processing system, encoding method, decoding method, encoding program, and decoding program

Publications (2)

Publication Number Publication Date
JP2013135464A JP2013135464A (en) 2013-07-08
JP5915168B2 true JP5915168B2 (en) 2016-05-11

Family

ID=48911837

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011286978A Expired - Fee Related JP5915168B2 (en) 2011-12-27 2011-12-27 Encoding device, decoding device, moving image processing system, encoding method, decoding method, encoding program, and decoding program

Country Status (1)

Country Link
JP (1) JP5915168B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7617781B2 (en) * 2021-03-19 2025-01-20 株式会社デンソーテン Information processing device, information processing system, image processing device, and information processing method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08126033A (en) * 1994-10-24 1996-05-17 Sanyo Electric Co Ltd Method for coding stereoscopic moving image
EP1927250A4 (en) * 2005-09-22 2011-04-27 Samsung Electronics Co Ltd DISPARITE VECTOR ESTIMATING METHOD, AND METHOD AND DEVICE FOR MULTIVISION MOTION IMAGE CODING AND DECODING BASED ON ESTIMATION METHOD
CN101491096B (en) * 2006-07-12 2012-05-30 Lg电子株式会社 Signal processing method and apparatus thereof
JP5118075B2 (en) * 2009-01-28 2013-01-16 日本電信電話株式会社 Scalable image encoding method, scalable image encoding device, scalable image encoding program, and computer-readable recording medium recording the program

Also Published As

Publication number Publication date
JP2013135464A (en) 2013-07-08

Similar Documents

Publication Publication Date Title
JP7159427B2 (en) Image decoding device, image decoding method and program
CN113785593B (en) Method and apparatus for video encoding and decoding
CN103053159B (en) Attribute with signal transmission network crossfire transmitting video data
CN114900695B (en) Video encoding and decoding method, device, computer equipment and computer readable storage medium
JP2022522682A (en) Methods, computer systems, and computer programs for signaling output layer sets in subpictures.
CN118803255A (en) Method and device for video encoding and decoding
CN111953996B (en) Video decoding method and device
CN112153391B (en) Video coding method and device, electronic equipment and storage medium
AU2023203915A1 (en) Method for adaptation parameter set reference and constraints in coded video stream
JP7434620B2 (en) Methods, computer systems, and computer programs for interlayer alignment in encoded video streams
US11388437B2 (en) View-position and angle dependent processing of point cloud data
AU2023251442B2 (en) Method for parameter set reference in coded video stream
CN116264863A (en) Supplementary Enhanced Information Messages Output for Independently Coded Regions
CN114365499B (en) Video encoding method, video encoding device and computer readable medium
CN117280388A (en) Vertex prediction based on mesh triangulation derivation
JP5915168B2 (en) Encoding device, decoding device, moving image processing system, encoding method, decoding method, encoding program, and decoding program
CN118104239A (en) Vertex prediction based on decoding neighboring vertices
RU2775391C1 (en) Splitting into tiles and subimages
RU2775489C1 (en) Access blocks separator signaling method
RU2808148C1 (en) Method and device for video coding
RU2804274C1 (en) Image output method with a set of output layers
RU2772795C1 (en) Reference picture resampling method with offset in video bitstream
RU2777924C1 (en) Method for signaling a set of output levels with a subimage
CN118476222A (en) Signaling of downsampling filters for intra prediction modes from luma to chroma
HK40065717A (en) Video coding and decoding method, apparatus and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150602

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160321

R150 Certificate of patent or registration of utility model

Ref document number: 5915168

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees