[go: up one dir, main page]

JP2007243763A - Decoding device, control method therefor, information reproducing device, and electronic device - Google Patents

Decoding device, control method therefor, information reproducing device, and electronic device Download PDF

Info

Publication number
JP2007243763A
JP2007243763A JP2006065341A JP2006065341A JP2007243763A JP 2007243763 A JP2007243763 A JP 2007243763A JP 2006065341 A JP2006065341 A JP 2006065341A JP 2006065341 A JP2006065341 A JP 2006065341A JP 2007243763 A JP2007243763 A JP 2007243763A
Authority
JP
Japan
Prior art keywords
data
unit
decoding
processing
packet
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006065341A
Other languages
Japanese (ja)
Inventor
Yoshimasa Kondo
嘉政 近藤
Hiroshi Sakai
寛 酒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2006065341A priority Critical patent/JP2007243763A/en
Publication of JP2007243763A publication Critical patent/JP2007243763A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a decoder even with a low processing capability for realizing decode processing with a heavy processing load at high speed by cutting waste in its circuit, and to provide a control method thereof and an information reproducing apparatus and an electronic apparatus. <P>SOLUTION: The decoder 40 includes: a sequencer section 50 for applying inverse discrete cosine transform to data obtained by decoding stream data coded by an entropy coding system and then performing dequantization of the resultant and generating image data resulting from motion prediction or motion compensation applied to the data after the inverse discrete cosine transform; and a filter section 60 for applying processing of reducing a block noise to the image data subjected to the motion prediction or motion compensation in the unit of a prescribed data block. Each of the sequence section 50 and the filter section 60 is started so as to be in parallel operations in the unit of a prescribed data block. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、デコード装置、その制御方法、情報再生装置及び電子機器に関する。   The present invention relates to a decoding device, a control method thereof, an information reproducing device, and an electronic apparatus.

動画像の画像データに対する汎用的な符号化方式として、MPEG−4(Moving Picture Experts Group Phase 4)やH.264/AVC(Advanced Video Coding)が規格化されている。特に、H.264/AVCは、動き補償の画像の処理単位を細かくしたり、参照フレーム数の数を増加させたり、エントロピー符号化の工夫、デブロッキングフィルタの採用等によって、MPEG−4等の従来の符号化方式に比べて高い圧縮符号化効率を達成している。しかも、H.264/AVCは、地上デジタル放送における動画像の画像データの圧縮符号化方式として定められるに至り、H.264/AVCがより一層重要になってきている。   MPEG-4 (Moving Picture Experts Group Phase 4) and H.264 are general-purpose encoding methods for moving image data. H.264 / AVC (Advanced Video Coding) is standardized. In particular, H.C. H.264 / AVC uses conventional encoding such as MPEG-4 by reducing the processing unit of motion compensation images, increasing the number of reference frames, devising entropy coding, employing a deblocking filter, and the like. High compression encoding efficiency is achieved compared to the system. Moreover, H.C. H.264 / AVC has been defined as a compression encoding method for moving image data in digital terrestrial broadcasting. H.264 / AVC is becoming even more important.

この地上デジタル放送は、これまでの地上アナログ放送に代わって行われる放送であり、この放送の中に、携帯端末向けサービスとして、いわゆる「1セグメント放送」がある。「1セグメント放送」では、QPSK(Quadrature Phase Shift Keying)変調方式で変調されたデジタル変調波をOFDM(Orthogonal Frequency Division Multiplexing)変調方式で多重化することで、携帯端末の移動時でも安定した放送受信が可能となる。このようにバッテリ駆動の携帯電話機において、H.264/AVCの処理を実現することが求められ、高い処理能力が必要なH.264/AVCの処理を低消費電力で実現することが必須となる。   This terrestrial digital broadcast is a broadcast performed in place of the conventional terrestrial analog broadcast. Among these broadcasts, there is a so-called “one-segment broadcast” as a service for mobile terminals. In “1-segment broadcasting”, digital modulated waves modulated by the QPSK (Quadrature Phase Shift Keying) modulation method are multiplexed by the OFDM (Orthogonal Frequency Division Multiplexing) modulation method, so that stable broadcast reception is possible even when the mobile terminal is moving. Is possible. Thus, in a battery-powered mobile phone, H. H.264 / AVC processing is required and high processing capability is required. It is essential to realize H.264 / AVC processing with low power consumption.

H.264/AVCに比べて処理負荷の軽いMPEG−2(Moving Picture Experts Group Phase 2)規格のデコード処理を行う構成が、例えば特許文献1に開示されている。この特許文献1では、MPEG−2規格のデコード処理が、並列に設けられた低い処理能力の複数のプロセッサにより行われる。即ち、MPEG−2規格に従って符号化された映像信号を、複数のビットストリームに分離し、各ビットストリームに対し可変長復号化処理と動き補償処理とを行い、各処理を実現するプロセッサの処理能力が低くても、全体として高い処理能力を実現させている。
特開平8−130745号公報
H. For example, Patent Document 1 discloses a configuration that performs MPEG-2 (Moving Picture Experts Group Phase 2) standard decoding processing, which has a lighter processing load than H.264 / AVC. In this Patent Document 1, MPEG-2 standard decoding processing is performed by a plurality of processors with low processing capacity provided in parallel. In other words, a video signal encoded according to the MPEG-2 standard is separated into a plurality of bit streams, and variable length decoding processing and motion compensation processing are performed on each bit stream, and the processing capability of the processor that realizes each processing Even if it is low, high processing capacity is realized as a whole.
JP-A-8-130745

しかしながら、特許文献1では、各ブロックが各データブロックのデコード処理を並列に行うものである。即ち、入力されたストリームデータを分割して得られた各データブロックのデータが各ブロックにおいて振り分けられることで、並列動作を行う。そのため、復号化システムの回路規模が大きくなってしまう。特にデータブロックのデータの内容に応じてデコード処理の処理負荷が大きく異なるため、特許文献1に開示された構成を採用した場合、データブロックのデータの内容の種類に依存して、処理が行われない無駄な回路部分が存在してしまう場合が多い。   However, in Patent Document 1, each block performs decoding processing of each data block in parallel. That is, the data of each data block obtained by dividing the input stream data is distributed in each block, thereby performing a parallel operation. This increases the circuit scale of the decoding system. In particular, since the processing load of the decoding process varies greatly depending on the data content of the data block, when the configuration disclosed in Patent Document 1 is adopted, processing is performed depending on the type of data content of the data block. In many cases, there is no useless circuit portion.

本発明は、以上のような技術的課題に鑑みてなされたものであり、その目的とするところは、回路の無駄を省き、低い処理能力であっても処理負荷の重いデコード処理を高速に実現するデコード装置、その制御方法、情報再生装置及び電子機器を提供することにある。   The present invention has been made in view of the technical problems as described above. The object of the present invention is to realize a high-speed decoding process with a heavy processing load even with a low processing capability, eliminating waste of circuits. It is an object of the present invention to provide a decoding device, a control method thereof, an information reproducing device, and an electronic apparatus.

上記課題を解決するために本発明は、
ストリームデータをデコードするためのデコード装置であって、
エントロピー符号化方式により符号化されたストリームデータを復号した後に逆量子化が行われたデータを逆離散コサイン変換し、該逆離散コサイン変換後のデータに対して動き予測又は動き補償を行った画像データを生成するシーケンサ部と、
所定のデータブロック単位で、前記動き予測又は動き補償を行った画像データのブロックノイズを低減させる処理を行うフィルタ部とを含み、
前記シーケンサ部及び前記フィルタ部の各部が、所与のデータブロック単位で並列動作するように起動されるデコード装置に関係する。
In order to solve the above problems, the present invention
A decoding device for decoding stream data,
An image obtained by performing inverse discrete cosine transform on data that has been subjected to inverse quantization after decoding stream data encoded by the entropy encoding method, and performing motion prediction or motion compensation on the data after the inverse discrete cosine transform A sequencer section for generating data;
A filter unit that performs processing for reducing block noise of the image data subjected to the motion prediction or motion compensation in a predetermined data block unit,
Each of the sequencer unit and the filter unit is related to a decoding device that is activated to operate in parallel in a given data block unit.

また本発明に係るデコード装置では、
第1の期間に続く第2の期間において、
前記フィルタ部が、前記第1の期間において前記シーケンサ部によって生成された動き予測又は動き補償後の画像データのブロックノイズを低減させる処理を行うと共に、
前記シーケンサ部が、前記第1の期間において逆量子化されたデータに対して逆離散コサイン変換し該逆離散コサイン変換後のデータに対し、動き予測又は動き補償を行った画像データを生成することができる。
In the decoding device according to the present invention,
In the second period following the first period,
The filter unit performs a process of reducing block noise of image data after motion prediction or motion compensation generated by the sequencer unit in the first period,
The sequencer unit performs inverse discrete cosine transform on the data inversely quantized in the first period, and generates image data obtained by performing motion prediction or motion compensation on the data after the inverse discrete cosine transform. Can do.

上記のいずれかの発明によれば、ストリームデータのデコード処理を行う場合に、シーケンサ部とフィルタ部とに区分し、各部をそれぞれ起動できるようにしている。特にフィルタ部の処理負荷は重く、シーケンサ部の処理とフィルタ部の処理とを並列に動作できるようにしたので、各部の処理能力が低い場合であっても、処理負荷の重いデコード処理を高速に実行できるようになる。   According to any one of the above-described inventions, when performing decoding processing of stream data, the sequencer unit and the filter unit are divided so that each unit can be activated. The processing load of the filter unit is particularly heavy, and the sequencer unit processing and filter unit processing can be operated in parallel, so even if the processing capacity of each unit is low, decoding processing with heavy processing load can be performed at high speed. It becomes possible to execute.

また本発明に係るデコード装置では、
前記シーケンサ部が、
該シーケンサ部の起動後、前記動き予測又は動き補償後の画像データが生成されたことを条件にセットされる第1の動作完了フラグを含み、
前記フィルタ部が、
該フィルタ部の起動後、前記動き予測又は動き補償後の画像データのブロックノイズを低減させる処理が完了したことを条件にセットされる第2の動作完了フラグを含み、
前記第1及び第2の動作完了フラグのセット状態の監視結果に基づいて、前記シーケンサ部及び前記フィルタ部の各部が起動されてもよい。
In the decoding device according to the present invention,
The sequencer section is
A first operation completion flag set on condition that the motion prediction or motion compensated image data is generated after the sequencer unit is activated;
The filter unit is
A second operation completion flag that is set on the condition that processing for reducing block noise of the image data after motion prediction or motion compensation has been completed after activation of the filter unit;
Each unit of the sequencer unit and the filter unit may be activated based on the monitoring result of the set state of the first and second operation completion flags.

また本発明に係るデコード装置では、
第1〜第3のデータブロックを第1のデータブロックから順番に処理する場合に、
前記第3のデータブロックに対して逆量子化が終了し、且つ、前記第2のデータブロックに対して前記シーケンサ部からの前記第1の動作完了フラグがセット状態にあり、且つ前記第1のデータブロックに対して前記フィルタ部からの前記第2の動作完了フラグがセット状態にすることを条件に、前記シーケンサ部及び前記フィルタ部が起動されてもよい。
In the decoding device according to the present invention,
When processing the first to third data blocks in order from the first data block,
Inverse quantization for the third data block is completed, and the first operation completion flag from the sequencer unit is set for the second data block, and the first data block The sequencer unit and the filter unit may be activated on condition that the second operation completion flag from the filter unit is set to the data block.

上記のいずれかの発明によれば、第1及び第2の動作完了フラグに対してポーリング動作を行うだけで、並列動作制御を実現することができるようになる。   According to any one of the above-described inventions, parallel operation control can be realized simply by performing a polling operation on the first and second operation completion flags.

また本発明に係るデコード装置では、
前記シーケンサ部及び前記フィルタ部を並列動作させるために起動する場合、
前記フィルタ部が起動されてから前記シーケンサ部が起動されてもよい。
In the decoding device according to the present invention,
When starting to operate the sequencer unit and the filter unit in parallel,
The sequencer unit may be activated after the filter unit is activated.

本発明によれば、デコード処理においてシーケンサ部を起動させない場合であっても、いち早くフィルタ部の動作を開始させることができるため、デコード処理の高速化に寄与できる。   According to the present invention, even when the sequencer unit is not activated in the decoding process, the operation of the filter unit can be started quickly, which can contribute to the speeding up of the decoding process.

また本発明に係るデコード装置では、
前記データブロックが、
前記ストリームデータに基づいて生成される画像のうち、水平方向の所与の画素数、垂直方向の所与のライン数を単位とする1マクロブロック分のデータであってもよい。
In the decoding device according to the present invention,
The data block is
Of the image generated based on the stream data, it may be data for one macroblock having a given number of pixels in the horizontal direction and a given number of lines in the vertical direction as a unit.

また本発明に係るデコード装置では、
前記ストリームデータを復号した後に逆量子化を行うデコード処理制御部、前記シーケンサ部及び前記フィルタ部の各部が、所与のデータブロック単位で並列動作するように起動されてもよい。
In the decoding device according to the present invention,
The decoding processing control unit that performs inverse quantization after decoding the stream data, the sequencer unit, and the filter unit may be activated to operate in parallel in units of given data blocks.

また本発明に係るデコード装置では、
中央演算処理装置を含み、
前記ストリームデータを復号すると共に前記シーケンサ部及び前記フィルタ部を起動する機能を実現するためのプログラムを読み込み、該プログラムに従ってエントロピー符号化方式により符号化されたストリームデータを復号した後に逆量子化を行う処理を実行すると共に、前記シーケンサ部及び前記フィルタ部が所与のデータブロック単位で並列動作するように各部を起動することができる。
In the decoding device according to the present invention,
Including a central processing unit,
A program for decoding the stream data and realizing the function of starting the sequencer unit and the filter unit is read, and the stream data encoded by the entropy encoding method is decoded according to the program, and then inverse quantization is performed. While executing the processing, each unit can be activated so that the sequencer unit and the filter unit operate in parallel in a given data block unit.

上記のいずれかの発明によれば、ストリームデータのデコード処理を行う場合に、デコード処理制御部とシーケンサ部とフィルタ部とに区分し、各部をそれぞれ起動できるようにしている。特にフィルタ部の処理負荷は重く、シーケンサ部の処理とフィルタ部の処理とを並列に動作できるようにしたので、各部の処理能力が低い場合であっても、処理負荷の重いデコード処理を高速に実行できるようになる。特に、ストリームデータをアクセスする処理ブロックをデコード処理制御部に限定したので、デコード処理制御部を、処理能力が低い中央演算処理装置によりソフトウェア処理で実現できるようになる。   According to any one of the above-described inventions, when the decoding process of the stream data is performed, the decoding process control unit, the sequencer unit, and the filter unit are divided so that each unit can be activated. The processing load of the filter unit is particularly heavy, and the sequencer unit processing and filter unit processing can be operated in parallel, so even if the processing capacity of each unit is low, decoding processing with heavy processing load can be performed at high speed. It becomes possible to execute. In particular, since the processing block for accessing the stream data is limited to the decoding processing control unit, the decoding processing control unit can be realized by software processing by a central processing unit having low processing capability.

また本発明は、
エントロピー符号化方式により符号化されたストリームデータを復号した後に逆量子化されたデータを逆離散コサイン変換し、該逆離散コサイン変換後のデータに対して動き予測又は動き補償を行った画像データを生成するシーケンサ部と、
所定のデータブロック単位で、前記動き予測又は動き補償後の画像データのブロックノイズを低減させる処理を行うフィルタ部とを含むデコード装置の制御方法であって、
前記ストリームデータに基づいて生成される画像のうち、水平方向の所与の画素数、垂直方向の所与のライン数を単位とする1マクロブロック分のデータを単位に、前記シーケンサ部及び前記フィルタ部が並列動作するように各部を起動するデコード装置の制御方法に関係する。
The present invention also provides
Image data obtained by performing inverse discrete cosine transform on the inversely quantized data after decoding the stream data encoded by the entropy encoding method and performing motion prediction or motion compensation on the data after the inverse discrete cosine transform A sequencer section to generate,
A control method of a decoding device including a filter unit that performs processing for reducing block noise of image data after motion prediction or motion compensation in units of predetermined data blocks,
Among the images generated based on the stream data, the sequencer unit and the filter in units of data of one macroblock having a given number of pixels in the horizontal direction and a given number of lines in the vertical direction as units. The present invention relates to a control method of a decoding device that activates each unit so that the units operate in parallel.

また本発明に係るデコード装置の制御方法では、
第1の期間に続く第2の期間において、
前記フィルタ部が、前記第1の期間において前記シーケンサ部によって生成された動き予測又は動き補償後の画像データのブロックノイズを低減させる処理を行うと共に、
前記シーケンサ部が、前記第1の期間において、逆量子化されたデータに対して逆離散コサイン変換し該逆離散コサイン変換後のデータに対して動き予測又は動き補償を行うように起動することができる。
In the decoding device control method according to the present invention,
In the second period following the first period,
The filter unit performs a process of reducing block noise of image data after motion prediction or motion compensation generated by the sequencer unit in the first period,
The sequencer unit may be activated to perform inverse discrete cosine transform on the inversely quantized data and perform motion prediction or motion compensation on the data after the inverse discrete cosine transform in the first period. it can.

また本発明に係るデコード装置の制御方法では、
前記シーケンサ部及び前記フィルタ部を並列動作させる場合、
前記フィルタ部を起動してから前記シーケンサ部を起動させてもよい。
In the decoding device control method according to the present invention,
When operating the sequencer unit and the filter unit in parallel,
The sequencer unit may be activated after the filter unit is activated.

また本発明に係るデコード装置の制御方法では、
前記ストリームデータを復号した後に逆量子化を行うデコード処理制御部、前記シーケンサ部及び前記フィルタ部の各部が、所与のデータブロック単位で並列動作するように起動することができる。
In the decoding device control method according to the present invention,
Each of the decoding processing control unit that performs inverse quantization after decoding the stream data, the sequencer unit, and the filter unit can be activated to operate in parallel in units of a given data block.

また本発明は、
映像データ及び音声データの少なくとも1つを再生するための情報再生装置であって、
映像データを生成するための第1のTS(Transport Stream)パケット、音声データを生成するための第2のTSパケット、前記第1及び第2のTSパケット以外の第3のTSパケットを、トランスポートストリームから抽出する分離処理部と、
前記第1のTSパケットが格納される第1の記憶領域と、前記第2のTSパケットが格納される第2の記憶領域と、前記第3のTSパケットが格納される第3の記憶領域とを有するメモリと、
前記第1の記憶領域から読み出された前記第1のTSパケットに基づいて前記映像データを生成する映像デコード処理を行う上記いずれか記載のデコード装置と、
前記第2の記憶領域から読み出された前記第2のTSパケットに基づいて前記音声データを生成する音声デコード処理を行う音声デコーダとを含み、
前記デコード装置が、前記第1の記憶領域から前記第1のTSパケットを、前記音声デコーダとは独立して読み出し、該第1のTSパケットに基づいて前記映像デコード処理を行うと共に、
前記音声デコーダが、前記第2の記憶領域から前記第2のTSパケットを、前記映像デコーダとは独立して読み出し、該第2のTSパケットに基づいて前記音声デコード処理を行う情報再生装置に関係する。
The present invention also provides
An information reproducing apparatus for reproducing at least one of video data and audio data,
Transport a first TS (Transport Stream) packet for generating video data, a second TS packet for generating audio data, and a third TS packet other than the first and second TS packets. A separation processing unit for extracting from the stream;
A first storage area for storing the first TS packet; a second storage area for storing the second TS packet; and a third storage area for storing the third TS packet; A memory having
The decoding device according to any one of the above, which performs video decoding processing for generating the video data based on the first TS packet read from the first storage area;
An audio decoder that performs audio decoding processing for generating the audio data based on the second TS packet read from the second storage area;
The decoding device reads the first TS packet from the first storage area independently of the audio decoder, performs the video decoding process based on the first TS packet,
Related to an information reproducing apparatus in which the audio decoder reads the second TS packet from the second storage area independently of the video decoder and performs the audio decoding process based on the second TS packet To do.

本発明によれば、処理能力の低い処理回路を用いて低消費電力で、処理負荷の重いデコード処理を実現する情報再生装置を提供できる。   ADVANTAGE OF THE INVENTION According to this invention, the information reproducing | regenerating apparatus which implement | achieves a decoding process with a heavy processing load with low power consumption using a processing circuit with low processing capability can be provided.

また本発明に係る情報再生装置では、
前記映像データ及び音声データのうち前記映像データのみを再生するときは、前記音声デコーダの動作を停止させ、
前記映像データ及び音声データのうち前記音声データのみを再生するときは、前記デコード装置の動作を停止させてもよい。
In the information reproducing apparatus according to the present invention,
When reproducing only the video data of the video data and audio data, stop the operation of the audio decoder,
When only the audio data among the video data and audio data is reproduced, the operation of the decoding device may be stopped.

本発明によれば、情報再生装置のより一層の低消費電力化を実現できる。   According to the present invention, further reduction in power consumption of the information reproducing apparatus can be realized.

また本発明は、
上記記載の情報再生装置と、
前記情報再生装置に対し、前記映像デコード処理及び前記音声デコード処理の少なくとも1つの処理開始を指示するホストとを含む電子機器に関係する。
The present invention also provides
An information reproducing apparatus as described above;
The present invention relates to an electronic apparatus including a host that instructs the information reproduction apparatus to start at least one of the video decoding process and the audio decoding process.

また本発明は、
チューナと、
前記チューナからのトランスポートストリームが供給される上記記載の情報再生装置と、
前記情報再生装置に対し、前記映像デコード処理及び前記音声デコード処理の少なくとも1つの処理開始を指示するホストとを含む電子機器に関係する。
The present invention also provides
Tuner,
The information reproducing apparatus as described above, wherein a transport stream from the tuner is supplied;
The present invention relates to an electronic apparatus including a host that instructs the information reproduction apparatus to start at least one of the video decoding process and the audio decoding process.

上記のいずれかの発明によれば、処理負荷の重い1セグメント放送の再生処理を低消費電力で実現できる電子機器を提供できる。   According to any one of the above-described inventions, it is possible to provide an electronic device that can realize the reproduction processing of one-segment broadcasting with heavy processing load with low power consumption.

以下、本発明の実施の形態について図面を用いて詳細に説明する。なお、以下に説明する実施の形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また以下で説明される構成のすべてが本発明の必須構成要件であるとは限らない。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The embodiments described below do not unduly limit the contents of the present invention described in the claims. Also, not all of the configurations described below are essential constituent requirements of the present invention.

1. デコード装置
図1に、本実施形態におけるデコードシステムの構成例のブロック図を示す。
1. Decoding Device FIG. 1 shows a block diagram of a configuration example of a decoding system in the present embodiment.

デコードシステム10は、デコード処理制御部20と、デコード装置40とを含む。このデコードシステム10では、デコード処理制御部20とデコード装置40とにより、H.264/AVC規格に従ってエンコードされたストリームデータのデコード処理が行われる。ここでストリームデータは、エントロピー符号化方式により符号化されたデータである。   The decoding system 10 includes a decoding processing control unit 20 and a decoding device 40. In the decoding system 10, the decoding process control unit 20 and the decoding device 40 are used to generate an H.264 signal. The stream data encoded according to the H.264 / AVC standard is decoded. Here, the stream data is data encoded by an entropy encoding method.

本実施形態では、画像の水平方向の所与の画素数、垂直方向の所与のライン数を単位とする1マクロブロック(Macro Block:MB)分のデータブロック単位のデータに対して行われるH.264/AVC規格の一連のデコード処理を複数の処理ブロックに分割し、各処理ブロックを並列動作させることで、処理能力の低い処理ブロックを用いても処理負荷の重いH.264/AVC規格のデコード処理を実現するようになっている。そのため、本実施形態では、MB単位に、デコード処理制御部20と、デコード装置40とを並列に動作させる。   In the present embodiment, H is performed on data in units of data blocks corresponding to one macroblock (MB) having a given number of pixels in the horizontal direction and a given number of lines in the vertical direction as units. . The H.264 / AVC standard series of decoding processes are divided into a plurality of processing blocks, and each processing block is operated in parallel. H.264 / AVC standard decoding processing is realized. Therefore, in this embodiment, the decoding process control unit 20 and the decoding device 40 are operated in parallel for each MB.

このデコード処理制御部20は、H.264/AVC規格に従って、エントロピー符号化方式により符号化されたストリームデータを復号し、その後に逆量子化されたデータを生成する。より具体的には、デコード処理制御部20は、コンテキスト適応型可変長符号化(Context-Adaptive Variable Length Coding:以下、CAVLCと略す。)部22と、逆量子化部24と、パラメータ解析部26と、並列動作制御部30とを含む。パラメータ解析部26は、イントラ用パラメータ解析部27と、インタ用パラメータ解析部28とを含む。   The decode processing control unit 20 is configured to transmit the H.264 data. In accordance with the H.264 / AVC standard, stream data encoded by the entropy encoding method is decoded, and then dequantized data is generated. More specifically, the decoding processing control unit 20 includes a context adaptive variable length coding (Context-Adaptive Variable Length Coding: hereinafter abbreviated as CAVLC) unit 22, an inverse quantization unit 24, and a parameter analysis unit 26. And a parallel operation control unit 30. The parameter analysis unit 26 includes an intra parameter analysis unit 27 and an inter parameter analysis unit 28.

一方、デコード装置40は、シーケンサ部50と、フィルタ部60とを含む。シーケンサ部50は、H.264/AVC規格に従って、デコード処理制御部20からのデータを逆離散コサイン変換(Discrete Cosine Transform:以下、DCTと略す)し、該逆離散コサイン変換後のデータに対して動き予測又は動き補償を行った画像データを生成する。フィルタ部60は、所定のデータブロック単位で、動き予測又は動き補償後の画像データのブロックノイズを低減させる処理を行う。このためシーケンサ部50は、逆DCT演算部52、加算部53、動き補償部54、動き予測部56を含む。動き予測部56は、重み付き予測部57と、画面内予測部58とを含む。なお、図1において、動き補償部54の機能に、加算部53及び動き予測部56の機能を含めて動き補償と呼ぶことができる。   On the other hand, the decoding device 40 includes a sequencer unit 50 and a filter unit 60. The sequencer unit 50 is an H.264. In accordance with the H.264 / AVC standard, data from the decoding processing control unit 20 is subjected to inverse discrete cosine transform (hereinafter abbreviated as DCT), and motion prediction or motion compensation is performed on the data after the inverse discrete cosine transform. Generated image data. The filter unit 60 performs a process of reducing block noise of image data after motion prediction or motion compensation in units of predetermined data blocks. Therefore, the sequencer unit 50 includes an inverse DCT calculation unit 52, an addition unit 53, a motion compensation unit 54, and a motion prediction unit 56. The motion prediction unit 56 includes a weighted prediction unit 57 and an in-screen prediction unit 58. In FIG. 1, the function of the motion compensation unit 54 includes the functions of the addition unit 53 and the motion prediction unit 56 and can be called motion compensation.

またフィルタ部60は、デブロックフィルタ62を含む。   The filter unit 60 includes a deblock filter 62.

こうして、ブロックノイズ低減後のデータが出力画像の画像データとして出力される。出力画像の画像データは、デコードシステム10の出力画像バッファ70に蓄積され、出力画像バッファ70の画像データは、次の画像の画像データを生成するための動き補償処理及び動き予測処理に供される。   Thus, the data after the block noise reduction is output as the image data of the output image. The image data of the output image is accumulated in the output image buffer 70 of the decoding system 10, and the image data in the output image buffer 70 is used for motion compensation processing and motion prediction processing for generating image data of the next image. .

このようにデコード処理制御部20の機能とデコード装置40の機能とを区切ることで、H.264/AVC規格によりエンコードされたストリームデータをアクセスする処理ブロックをデコード処理制御部20に限定することができる。これは、ストリームデータの内容を解析する場合、前から順番に読み出して処理する必要があるため、ストリームデータを処理する処理ブロックは、1つに限定されることが望ましいからである。その結果として、デコード処理制御部20がストリームデータにアクセスする間に、後段に設けられたデコード装置40が、別のMBのデータに対して逆DCT演算等を行うことができる。   In this way, the function of the decoding process control unit 20 and the function of the decoding device 40 are separated from each other. Processing blocks that access stream data encoded according to the H.264 / AVC standard can be limited to the decoding processing control unit 20. This is because when analyzing the contents of stream data, it is necessary to read and process the data in order from the front, so it is desirable that the number of processing blocks for processing stream data is limited to one. As a result, while the decoding processing control unit 20 accesses the stream data, the decoding device 40 provided in the subsequent stage can perform inverse DCT operation or the like on the data of another MB.

即ち、デコード処理制御部20は、エントロピー符号化方式により符号化されたストリームデータから所定のデータ単位で読み出し、読み出したデータを解析して次のパラメータを解析するために読み出すべきビット数を求め、再びストリームデータにアクセスするといった処理を繰り返し、画像データを生成するためのビットデータや、動き予測等に必要なパラメータ(動きベクトル情報)等を求める。こうすることで、デコード装置40は、画像データを生成するための一連の繰り返し処理を実行するだけで済む。   That is, the decoding processing control unit 20 reads out the predetermined data unit from the stream data encoded by the entropy encoding method, calculates the number of bits to be read in order to analyze the read data and analyze the next parameter, The process of accessing the stream data again is repeated to obtain bit data for generating image data, parameters (motion vector information) necessary for motion prediction, and the like. In this way, the decoding device 40 only needs to execute a series of iterative processes for generating image data.

本実施形態におけるデコード処理制御部20の処理は、いわゆるソフトウェアで実現することが望ましい。これは、上述のようにビットストリームを繰り返し読み出して処理する必要がある上に、H.264/AVC規格のエントロピー符号化方式として採用されたCAVLCをハードウェア回路で実現すると回路規模が増大するからである。そのため、デコード処理制御部20は、中央演算処理装置(Central Processing Unit:CPU)を含み、エントロピー符号化方式により符号化されたストリームデータを復号し、復号後に逆量子化を行う処理を実現するためのプログラムを読み込み、該CPUが上述のデコード処理制御部20の処理を実現することができる。   The processing of the decoding processing control unit 20 in the present embodiment is desirably realized by so-called software. This is because it is necessary to repeatedly read and process the bit stream as described above. This is because CAVLC adopted as an entropy encoding method of the H.264 / AVC standard is realized by a hardware circuit, thereby increasing the circuit scale. Therefore, the decoding process control unit 20 includes a central processing unit (CPU), and implements a process of decoding stream data encoded by the entropy encoding method and performing inverse quantization after decoding. The CPU can implement the processing of the decoding processing control unit 20 described above.

また本実施形態では、デコード処理制御部20の処理時間とデコード装置40の処理時間とを考慮して、デコード装置40において、更にシーケンサ部50の処理とフィルタ部60の処理とを並列動作させる。即ち、フィルタ部60におけるデブロックフィルタ処理の処理負荷が重いことに着目し、シーケンサ部50及びフィルタ部60をそれぞれ別個に起動し、各部の処理を区切るようにした。この結果、デブロックフィルタ処理の処理時間と、シーケンサ部50の処理時間とをほぼ同じにすることができる。従って、本実施形態におけるデコードシステム10では、デコード処理制御部20、シーケンサ部50、フィルタ部60が並列動作することになる。この並列動作の起動は、デコード処理制御部20の並列動作制御部30が行うようになっている。   In the present embodiment, in consideration of the processing time of the decoding processing control unit 20 and the processing time of the decoding device 40, the processing of the sequencer unit 50 and the processing of the filter unit 60 are further operated in parallel in the decoding device 40. That is, paying attention to the heavy processing load of the deblocking filter processing in the filter unit 60, the sequencer unit 50 and the filter unit 60 are activated separately to divide the processing of each unit. As a result, the processing time of the deblocking filter process and the processing time of the sequencer unit 50 can be made substantially the same. Therefore, in the decoding system 10 in the present embodiment, the decoding processing control unit 20, the sequencer unit 50, and the filter unit 60 operate in parallel. The parallel operation is started by the parallel operation control unit 30 of the decode processing control unit 20.

図2に、本実施形態におけるデコードシステム10の処理の流れの概要のフロー図を示す。   FIG. 2 is a flowchart showing an outline of the processing flow of the decoding system 10 in this embodiment.

例えばデコード処理制御部20は、図2に示す処理を実行するためのプログラムを読み込み、図2に示す処理を実現できるようになっている。   For example, the decoding process control unit 20 can read a program for executing the process shown in FIG. 2 and realize the process shown in FIG.

デコードシステム10では、まずデコード処理制御部20において、IDR(Instantaneous Decoding Refresh)ブロックの先頭が検出される(ステップS10)。IDRブロックは、ランダムアクセス機能を実現するために、過去のピクチャを参照することなく復号するためのブロックである。   In the decoding system 10, first, the decoding process control unit 20 detects the head of an IDR (Instantaneous Decoding Refresh) block (step S10). The IDR block is a block for decoding without referring to past pictures in order to realize a random access function.

次に、デコード処理制御部20では、ストリームデータから所定のデータ単位を読み出してデコード処理に必要なパラメータ解析を行って、画像データを生成するためのビットデータの抽出や、動き予測等に必要なパラメータ(動きベクトル情報)等を求める(ステップS11)。   Next, the decoding process control unit 20 reads out a predetermined data unit from the stream data, performs parameter analysis necessary for the decoding process, and is necessary for extraction of bit data for generating image data, motion prediction, and the like. Parameters (motion vector information) and the like are obtained (step S11).

その後、デコード処理制御部20は、CAVLC処理を行って、エントロピー符号化方式で符号化されたストリームデータを復号する処理を行う(ステップS12)。   Thereafter, the decoding process control unit 20 performs a CAVLC process to decode the stream data encoded by the entropy encoding method (step S12).

そして、シーケンサ部50が、デコード処理制御部20によって復号されたデータに対して逆DCT演算を行って動き予測又は動き補償を行った画像データを生成する(ステップS13)。   The sequencer unit 50 then performs inverse DCT operation on the data decoded by the decoding process control unit 20 to generate image data that has undergone motion prediction or motion compensation (step S13).

シーケンサ部50によって生成された画像データは、フィルタ部60においてブロックノイズを低減させる処理が行われて出力画像の画像データとして出力される(ステップS14)。   The image data generated by the sequencer unit 50 is subjected to processing for reducing block noise in the filter unit 60 and is output as image data of an output image (step S14).

そして、画像を分割した最終MBであるか否かが判別され(ステップS15)、最終MBであると判別されたとき(ステップS15:Y)、一連の処理を終了し、最終MBではないと判別されたとき(ステップS15:N)、ステップS11に戻る。   Then, it is determined whether or not it is the final MB obtained by dividing the image (step S15). When it is determined that the image is the final MB (step S15: Y), a series of processing ends, and it is determined that it is not the final MB. When it is done (step S15: N), the process returns to step S11.

ここで、IDRブロックの先頭検出、パラメータ解析、CAVLC処理はデコード処理制御部20によって行われる。シーケンサ処理は、シーケンサ部50によって行われる。デブロックフィルタ処理は、フィルタ部60によって行われる。そして、シーケンサ部50の処理の起動、フィルタ部60の処理の起動は、デコード処理制御部20が行う。より具体的にはデコード処理制御部20は、連続するMBのデータに対し、シーケンサ処理及びデブロックフィルタ処理が並列動作するようにシーケンサ部50及びフィルタ部60の起動を行う。こうすることで、H.264/AVC規格に準拠したデコード処理を高速に実行できるようになる。   Here, the head detection, parameter analysis, and CAVLC processing of the IDR block are performed by the decoding processing control unit 20. The sequencer process is performed by the sequencer unit 50. The deblocking filter process is performed by the filter unit 60. The decoding process control unit 20 starts the processing of the sequencer unit 50 and the processing of the filter unit 60. More specifically, the decoding process control unit 20 activates the sequencer unit 50 and the filter unit 60 so that the sequencer process and the deblocking filter process operate in parallel with respect to continuous MB data. In this way, H. The decoding process conforming to the H.264 / AVC standard can be executed at high speed.

図3に、ストリームデータから抽出されたMB単位のビットストリームの模式図を示す。ここでは、ストリームデータから抽出されたビットストリームデータがMB単位に分割されているものとし、各MBの入力順に、MB1(第1のデータブロック)、MB2(第2のデータブロック)、MB3(第3のデータブロック)、・・・とする。   FIG. 3 shows a schematic diagram of a bit stream in MB extracted from the stream data. Here, it is assumed that the bit stream data extracted from the stream data is divided into MB units, and MB1 (first data block), MB2 (second data block), MB3 (first data block) in the order of input of each MB. 3 data blocks).

図4に、本実施形態の比較例におけるデコードシステムの動作例のタイミング図を示す。   FIG. 4 shows a timing chart of an operation example of the decoding system in the comparative example of the present embodiment.

図3に示すようなMBの並び順において、比較例では、まず本実施形態におけるデコード処理制御部の機能を実現する処理ブロックがMB1に対し、エントロピー符号化されたデータを復号し、その後、逆量子化処理を行う(TG1)。その後、本実施形態におけるシーケンサ部の機能を実現する処理ブロックが、MB1のデータに対して行われた逆量子化後のデータを逆離散コサイン変換し、該逆離散コサイン変換後のデータに対して動き予測又は動き補償を行った画像データを生成する(TG2)。そして、本実施形態におけるフィルタ部の機能を実現する処理ブロックが、MB1のデータに対して行われた動き予測又は動き補償後の画像データに対して、ブロックノイズを低減させる処理を行う(TG3)。   In the arrangement order of MBs as shown in FIG. 3, in the comparative example, first, a processing block that realizes the function of the decoding processing control unit in the present embodiment decodes entropy-encoded data for MB1, and then performs reverse processing. Quantization processing is performed (TG1). After that, the processing block that realizes the function of the sequencer unit in the present embodiment performs inverse discrete cosine transform on the data after inverse quantization performed on the data of MB1, and the data after the inverse discrete cosine transform Image data subjected to motion prediction or motion compensation is generated (TG2). Then, the processing block that realizes the function of the filter unit in the present embodiment performs processing to reduce block noise on the image data after motion prediction or motion compensation performed on the data of MB1 (TG3). .

そして、MB1に対して一連のデコード処理が終了すると、次に、本実施形態におけるデコード処理制御部の機能を実現する処理ブロックがMB2に対し、エントロピー符号化されたデータを復号し、その後、逆量子化処理を行う(TG4)。その後、本実施形態におけるシーケンサ部の機能を実現する処理ブロックが、MB2のデータに対して行われた逆量子化後のデータを逆離散コサイン変換し、該逆離散コサイン変換後のデータに対して動き予測又は動き補償を行った画像データを生成する(TG5)。そして、本実施形態におけるフィルタ部の機能を実現する処理ブロックが、MB2のデータに対して行われた動き予測又は動き補償後の画像データに対して、ブロックノイズを低減させる処理を行う(TG6)。以下、同様にMB単位でデコード処理が行われる。   When a series of decoding processes for MB1 is completed, the processing block that realizes the function of the decoding process control unit in the present embodiment decodes the entropy-encoded data for MB2, and then reverses the process. Quantization processing is performed (TG4). After that, the processing block that realizes the function of the sequencer unit in the present embodiment performs inverse discrete cosine transform on the data after inverse quantization performed on the data of MB2, and the data after the inverse discrete cosine transform is performed. Image data subjected to motion prediction or motion compensation is generated (TG5). Then, the processing block that realizes the function of the filter unit in the present embodiment performs a process of reducing block noise on the image data after motion prediction or motion compensation performed on the data of MB2 (TG6). . Thereafter, the decoding process is similarly performed in MB units.

図3に示すように、1MBのデータに対するデコード処理には、処理時間PT1が必要となる。   As shown in FIG. 3, processing time PT1 is required for the decoding process for 1 MB data.

これに対して、本実施形態では、デコード処理制御部20、シーケンサ部50及びフィルタ部60が並列動作(より具体的にはパイプライン動作)することで、デコード処理を実現できる。   On the other hand, in the present embodiment, decoding processing can be realized by the decoding processing control unit 20, the sequencer unit 50, and the filter unit 60 performing a parallel operation (more specifically, a pipeline operation).

図5に、本実施形態におけるデコードシステムの動作例のタイミング図を示す。   FIG. 5 shows a timing chart of an operation example of the decoding system in the present embodiment.

ここで、第2の期間T2が、第1の期間T1に続く期間であるものとする。本実施形態では、第2の期間T2において、フィルタ部60が、第1の期間T1においてシーケンサ部50によって生成された動き予測又は動き補償後の画像データ(図5ではMB1のデータ)のブロックノイズを低減させる処理を行う(TG10)。そして、この第2の期間T2では、シーケンサ部50が、第1の期間T1にデコード処理制御部20において行われた逆量子化されたデータ(図5ではMB2のデータ)に対して逆離散コサイン変換し該逆離散コサイン変換後のデータに対し、動き予測又は動き補償を行った画像データを生成する(TG11)。   Here, it is assumed that the second period T2 is a period following the first period T1. In the present embodiment, in the second period T2, the filter unit 60 causes block noise of image data (MB1 data in FIG. 5) after motion prediction or motion compensation generated by the sequencer unit 50 in the first period T1. (TG10) is performed. In the second period T2, the sequencer unit 50 performs inverse discrete cosine on the inversely quantized data (MB2 data in FIG. 5) performed in the decoding process control unit 20 in the first period T1. Image data obtained by performing motion prediction or motion compensation is generated on the data that has been transformed and subjected to the inverse discrete cosine transform (TG11).

従って、第2の期間T2では、デコード処理制御部20が、MB1、MB2に続くMB3のデータに対して、エントロピー符号化されたデータを復号し、その後に逆量子化処理を行ったデータを生成する(TG12)。   Therefore, in the second period T2, the decoding processing control unit 20 generates data that has been subjected to dequantization processing after decoding entropy-encoded data with respect to MB3 data following MB1 and MB2. (TG12).

この結果、MB1に対しするデコード処理の処理時間が図4と変わらないものの、MB2、MB3に対するデコード処理の処理時間が大幅に削減される。即ち、図4と比較した場合、同じMB数のデータに対して高速なデコード処理を行うことができる。   As a result, although the processing time of the decoding process for MB1 is not different from that in FIG. 4, the processing time of the decoding process for MB2 and MB3 is greatly reduced. That is, when compared with FIG. 4, high-speed decoding processing can be performed on data having the same number of MBs.

しかも、ソフトウェア処理に有利なデコード処理制御部20の処理をCPUで行わせ、その他の繰り返し処理となるシーケンサ部50の処理及びフィルタ部60の処理をハードウェア回路で行わせることで、処理能力の低いCPUを用いることができ、且つ回路規模の増大を抑えるデコードシステムを提供することができるようになる。   In addition, the processing of the decoding processing control unit 20 advantageous for software processing is performed by the CPU, and the processing of the sequencer unit 50 and the processing of the filter unit 60 which are other repetitive processing are performed by the hardware circuit. A decoding system that can use a low CPU and suppresses an increase in circuit scale can be provided.

以下、本実施形態におけるデコードシステム10の各部の処理について説明する。   Hereinafter, processing of each unit of the decoding system 10 in the present embodiment will be described.

1.1 デコード処理制御部
本実施形態におけるデコード処理制御部20は、ストリームデータからパラメータを抽出するヘッダ解析処理、エントロピー符号化方式により符号化されたストリームデータから抽出されたデータを復号するCAVLC処理、逆量子化処理を行う。
1.1 Decoding Process Control Unit The decoding process control unit 20 according to the present embodiment includes a header analysis process for extracting parameters from stream data, and a CAVLC process for decoding data extracted from stream data encoded by the entropy encoding method. Inverse quantization processing is performed.

図6に、デコード処理制御部20において行われるヘッダ解析処理の一例のフロー図を示す。   FIG. 6 shows a flowchart of an example of the header analysis process performed in the decoding process control unit 20.

ストリームデータが入力されると、デコード処理制御部20が、例えばバッファに格納されたストリームデータから所定ビット数のデータを読み出す(ステップS20)。パラメータ解析部26のイントラ用パラメータ解析部27は、ステップS20で読み出したデータがイントラ用パラメータであるか否かを判別し、インタ用パラメータ解析部28は、ステップS20で読み出したデータがインタ用パラメータであるか否かを判別する(ステップS21)。その結果、イントラ用パラメータ又はインタ用パラメータであると判別されたとき(ステップS21:Y)、イントラ用パラメータ又はインタ用パラメータを求める(ステップS22)。   When the stream data is input, the decoding process control unit 20 reads data having a predetermined number of bits from the stream data stored in, for example, a buffer (step S20). The intra parameter analysis unit 27 of the parameter analysis unit 26 determines whether or not the data read in step S20 is an intra parameter, and the inter parameter analysis unit 28 determines that the data read in step S20 is the inter parameter. It is discriminate | determined whether it is (step S21). As a result, when it is determined that the parameter is an intra parameter or an inter parameter (step S21: Y), an intra parameter or an inter parameter is obtained (step S22).

ステップS21において、イントラ用パラメータ又はインタ用パラメータではないと判別されたとき(ステップS21:N)、或いはイントラ用パラメータ又はインタ用パラメータを求めると、次のパラメータのビット位置を求める(ステップS23)。これは、パラメータの種類やデータサイズ等が規定され、ストリームデータを前の方から順番に解析する必要があることを意味する。   When it is determined in step S21 that the parameter is not an intra parameter or an inter parameter (step S21: N), or when an intra parameter or an inter parameter is obtained, the bit position of the next parameter is obtained (step S23). This means that parameter types, data sizes, etc. are defined, and stream data must be analyzed in order from the front.

こうして、次のビット位置が特定されると、ヘッダ解析が終了のとき(ステップS24:Y)、一連の処理を終了し、ヘッダ解析を継続するとき(ステップS24:N)、ステップS20に戻って、ストリームデータから次の所定ビット数のデータを読み出す。   Thus, when the next bit position is specified, when the header analysis is finished (step S24: Y), a series of processing is finished, and when the header analysis is continued (step S24: N), the process returns to step S20. Then, the next predetermined number of bits of data is read from the stream data.

例えば図2のIDRブロックの先頭の検出処理や、該検出処理後のパラメータ解析処理では、上述のようにストリームデータをアクセスしながら各処理が行われる。   For example, in the detection processing of the head of the IDR block in FIG. 2 and the parameter analysis processing after the detection processing, each processing is performed while accessing the stream data as described above.

以上のようなヘッダ解析が行われると、デコード処理対象の画像データのビット位置が特定でき、CAVLC部22における復号化処理が開始される。   When the header analysis as described above is performed, the bit position of the image data to be decoded can be specified, and the decoding process in the CAVLC unit 22 is started.

図7に、CAVLC部22の処理の一例のフロー図を示す。   FIG. 7 shows a flowchart of an example of processing of the CAVLC unit 22.

図6と同様に、CAVCL部22は、例えばバッファに格納されたストリームデータから所定ビット数のデータを読み出す(ステップS30)。そして、CAVLC部22は、ステップS30で読み出したデータがCAVLCデータであるか否かを判別する(ステップS31)。ここで、CAVLCデータは、CAVLCにより符号化されたデータである。   Similar to FIG. 6, the CAVCL unit 22 reads data of a predetermined number of bits from, for example, stream data stored in a buffer (step S30). Then, the CAVLC unit 22 determines whether or not the data read in step S30 is CAVLC data (step S31). Here, the CAVLC data is data encoded by CAVLC.

CAVLCデータであると判別されたとき(ステップS31:Y)、図6のヘッダ解析によって得られたパラメータを用いてCAVLC演算を行い(ステップS32)、一連の処理を終了する(エンド)。   When it is determined that the data is CAVLC data (step S31: Y), CAVLC calculation is performed using the parameters obtained by the header analysis of FIG. 6 (step S32), and a series of processing ends (end).

なおステップS31において、CAVLCデータではないと判別されたとき(ステップS31:N)、一連の処理を終了する(エンド)。   In step S31, when it is determined that the data is not CAVLC data (step S31: N), the series of processing ends (end).

図8(A)、図8(B)、図8(C)に、CAVLC演算の説明図を示す。   FIG. 8A, FIG. 8B, and FIG. 8C are explanatory diagrams of CAVLC calculation.

図8(A)は、画像の水平方向に4画素、画像の垂直方向に4ライン分のデータブロックの量子化されたDCT係数値ED11、ED12、ED13、・・・、ED44を示している。ストリームデータの符号化側では、図8(A)に示す順序でデータが一次元化され、一旦、図8(B)に示すようなデータ列が生成される。その後、図8(B)に示すデータ列をエントロピー符号化方式により符号化することでストリームデータが生成される。 8A shows quantized DCT coefficient values ED 11 , ED 12 , ED 13 ,..., ED 44 of data blocks for four pixels in the horizontal direction of the image and four lines in the vertical direction of the image. Show. On the encoding side of the stream data, the data is made one-dimensional in the order shown in FIG. 8A, and a data string as shown in FIG. 8B is once generated. Then, stream data is generated by encoding the data sequence shown in FIG. 8B by the entropy encoding method.

より具体的には、図8(C)に示すパラメータ値を順番に格納していくことで符号化される。図8(C)において、TotalCoeffは、図8(B)のデータ列の「非0係数の個数」を示す。TrailingOnesは、図8(B)のデータ列の「最後に連続する絶対値1の係数の個数」を示す。Trailing_ones_sign_flagは、図8(B)のデータ列の「最後に連続する絶対値1の係数の符号」を示す。levelは、図8(B)のデータ列の「量子化されたDCT係数値」を示す。total_zerosは、図8(B)の「最後の非0係数以前の0係数の個数」を示す。run_beforeは、図8(B)の「係数値の前の0の連続個数」を示す。   More specifically, encoding is performed by sequentially storing the parameter values shown in FIG. In FIG. 8C, TotalCoeff indicates “the number of non-zero coefficients” of the data string in FIG. TrailingOnes indicates “the number of coefficients having the absolute value 1 that is continuous last” in the data string of FIG. Trailing_ones_sign_flag indicates “the sign of the coefficient having the absolute value 1 that is continuous last” in the data string in FIG. Level indicates the “quantized DCT coefficient value” of the data string in FIG. total_zeros indicates “the number of zero coefficients before the last non-zero coefficient” in FIG. run_before indicates “the number of consecutive 0s before the coefficient value” in FIG.

ところで、上述のようにCAVLC部22で復号されたデータは、更にゴロム(Golomb)符号により符号化されている。従って、CAVLC部22は、更にゴロム符号化されたデータを復号することができるようになっている。   By the way, the data decoded by the CAVLC unit 22 as described above is further encoded by a Golomb code. Therefore, the CAVLC unit 22 can further decode the Golomb encoded data.

図9(A)、図9(B)、図9(C)に、ゴロム符号の説明図を示す。   9A, 9B, and 9C are explanatory diagrams of Golomb codes.

ゴロム符号は、CAVLCと同様にH.264/AVC規格において採用された符号化方式である。ゴロム符号は、図9(A)に示すように、セパレータSPRである「1」を境界に、プリフィックス(Prefix)部PX、サフィックス(Suffix)部SXを含む。プリフィックス部PXは「0」が所定の個数だけ連続し、サフィックス部SXは、符号化対象のデータに応じてプリフィックス部PXと同数の「0」又は「1」が入る。ここで、図9(A)に示すゴロム符号は、図9(B)に示すテーブルに従って符号番号に割り当てられる。更に、図9(B)に示す符号番号は、図9(C)に示すテーブルに従ってシンタックス要素値に割り当てられる。   The Golomb code is an H.264 code similar to CAVLC. This is an encoding method adopted in the H.264 / AVC standard. As shown in FIG. 9A, the Golomb code includes a prefix (PX) part PX and a suffix (Suffix) part SX with the separator SPR “1” as a boundary. A predetermined number of “0” s are continued in the prefix part PX, and the same number of “0” or “1” as the prefix part PX is entered in the suffix part SX depending on the data to be encoded. Here, the Golomb code shown in FIG. 9A is assigned to a code number according to the table shown in FIG. Furthermore, the code numbers shown in FIG. 9B are assigned to the syntax element values according to the table shown in FIG.

そして、CAVLC部22は、図8(C)のようにパラメータ化された数値を解析して、図8(B)に示すデータ列に変換する。そして、CAVLC部22は、図8(A)に示すように、量子化されたDCT係数値群を生成することができる。このとき、CAVLC部22は、復号されたデータに対し、図9(C)に示すテーブル、図9(B)に示すテーブルに従って割り出されたゴロム符号を元に、復号化する。   Then, the CAVLC unit 22 analyzes the parameterized numerical values as shown in FIG. 8C and converts them into a data string shown in FIG. 8B. Then, the CAVLC unit 22 can generate a quantized DCT coefficient value group as shown in FIG. At this time, the CAVLC unit 22 decodes the decoded data based on the Golomb code determined according to the table shown in FIG. 9C and the table shown in FIG. 9B.

以上のようにエントロピー符号化方式により符号化されたストリームデータが復号されると、復号後のデータが逆量子化部24に入力される。   As described above, when the stream data encoded by the entropy encoding method is decoded, the decoded data is input to the inverse quantization unit 24.

図10に、逆量子化部24の処理の説明図を示す。   FIG. 10 shows an explanatory diagram of processing of the inverse quantization unit 24.

上述のDCT係数値は、量子化ステップで除算した結果を整数値に丸めた値である。そのため、逆量子化部24は、上述の復号の結果として得られたDCT係数値に対し、量子化ステップを乗算することで、逆DCT演算部52に供給されるデータを生成する。   The above-mentioned DCT coefficient value is a value obtained by rounding the result obtained by dividing in the quantization step to an integer value. Therefore, the inverse quantization unit 24 generates data to be supplied to the inverse DCT calculation unit 52 by multiplying the DCT coefficient value obtained as a result of the above decoding by a quantization step.

このとき、図10に示すような特性に従って量子化ステップを求めることが望ましい。図10では、量子化パラメータを横軸に、量子化ステップを縦軸に示した場合に、量子化パラメータと量子化ステップとが非線形性を有する。より具体的には、DCT係数値として量子化パラメータが与えられると、図10に示す特性に従って量子化ステップを求める。更に具体的には、量子化パラメータと量子化ステップの対数が比例するように、量子化ステップを導出する。   At this time, it is desirable to obtain the quantization step according to the characteristics shown in FIG. In FIG. 10, when the quantization parameter is shown on the horizontal axis and the quantization step is shown on the vertical axis, the quantization parameter and the quantization step have nonlinearity. More specifically, when a quantization parameter is given as a DCT coefficient value, a quantization step is obtained according to the characteristics shown in FIG. More specifically, the quantization step is derived so that the logarithm of the quantization parameter and the quantization step is proportional.

そして、この量子化ステップと量子化パラメータとを用いて、逆DCT演算部52に供給されるデータを生成する。   Then, data supplied to the inverse DCT calculation unit 52 is generated using the quantization step and the quantization parameter.

1.2 シーケンサ部
図1に示すように、シーケンサ部50は、起動フラグSF1、動作完了フラグEF1(第1の動作完了フラグ)を有する。起動フラグSF1及び動作完了フラグEF1は、デコード処理制御部20(並列動作制御部30)によってアクセスされる。即ち、並列動作制御部30によって、起動フラグSF1がセットされると、シーケンサ部50は、デコード処理制御部20からのMB単位のデータに対し、逆DCT演算を行って、逆DCT演算後のデータに対して動き予測又は動き補償を行った画像データを生成する。そして、動き予測又は動き補償を行った画像データの生成が完了すると、動作完了フラグEF1がセットされる。従って、動作完了フラグEF1は、並列動作制御部30によるシーケンサ部50の起動後、動き予測又は動き補償後の画像データが生成されたことを条件にセットされる。
1.2 Sequencer Unit As shown in FIG. 1, the sequencer unit 50 includes a start flag SF1 and an operation completion flag EF1 (first operation completion flag). The activation flag SF1 and the operation completion flag EF1 are accessed by the decoding process control unit 20 (parallel operation control unit 30). That is, when the activation flag SF1 is set by the parallel operation control unit 30, the sequencer unit 50 performs the inverse DCT operation on the data in MB units from the decode processing control unit 20, and the data after the inverse DCT operation Image data subjected to motion prediction or motion compensation is generated. Then, when the generation of the image data subjected to motion prediction or motion compensation is completed, the operation completion flag EF1 is set. Accordingly, the operation completion flag EF1 is set on condition that image data after motion prediction or motion compensation is generated after the sequencer unit 50 is started by the parallel operation control unit 30.

この動作完了フラグEF1のステータスは、並列動作制御部30によって監視され、並列動作制御部30が動作完了フラグEF1のステータスを読み出すことで、動作完了フラグEF1はリセットされるようになっている。   The status of the operation completion flag EF1 is monitored by the parallel operation control unit 30, and the operation completion flag EF1 is reset when the parallel operation control unit 30 reads the status of the operation completion flag EF1.

このようなシーケンサ部50では、起動フラグSF1がセットされると、逆DCT演算部52において、H.264/AVC規格で規定された公知の逆DCT演算が行われる。このとき、デコード処理制御部20のパラメータ解析部26では、既に当該MBのデータに対して、イントラ用パラメータ又はインタ用パラメータの解析が終了している。そこで、動き予測部56に対して、パラメータ解析部26の解析結果に応じて、画面内予測を行うかフレーム間予測を行うかが指定される。   In such a sequencer unit 50, when the activation flag SF1 is set, the inverse DCT calculation unit 52 performs the H.264 operation. A known inverse DCT operation defined in the H.264 / AVC standard is performed. At this time, the parameter analysis unit 26 of the decoding process control unit 20 has already finished analyzing the intra parameters or the inter parameters for the MB data. Therefore, the motion prediction unit 56 is designated according to the analysis result of the parameter analysis unit 26 whether to perform intra-frame prediction or inter-frame prediction.

画面内予測を行う場合には、動き予測部56の画面内予測部58が、加算部53の出力結果に基づいて、当該フレーム内において公知の画面内予測処理を行う。   When performing intra prediction, the intra prediction unit 58 of the motion prediction unit 56 performs known intra prediction processing within the frame based on the output result of the addition unit 53.

一方、動き補償部54は、出力画像バッファ70に格納された複数の参照フレームの中からインタ用パラメータ解析部28で解析されたフレームの参照フレームを用いて、H.264/AVC規格で規定された公知の動き補償処理を行う。そして、パラメータ解析部26の解析結果に基づいてフレーム間予測を行う場合には、動き予測部56の重み付き予測部57が、H.264/AVC規格で規定された公知の重み付き予測を行う。   On the other hand, the motion compensation unit 54 uses the reference frame of the frame analyzed by the inter parameter analysis unit 28 out of the plurality of reference frames stored in the output image buffer 70, and outputs the H.264. A known motion compensation process defined by the H.264 / AVC standard is performed. When performing inter-frame prediction based on the analysis result of the parameter analysis unit 26, the weighted prediction unit 57 of the motion prediction unit 56 is A known weighted prediction defined in the H.264 / AVC standard is performed.

こうして動き予測又は動き補償が行われたデータは、加算部53において、逆DCT演算後のデータと加算される。その後、動作完了フラグEF1がセットされる。   The data subjected to motion prediction or motion compensation in this manner is added to the data after inverse DCT calculation in the adding unit 53. Thereafter, the operation completion flag EF1 is set.

1.3 フィルタ部
図1に示すように、フィルタ部60は、起動フラグSF2、動作完了フラグEF2(第2の動作完了フラグ)を有する。起動フラグSF2及び動作完了フラグEF2は、デコード処理制御部20(並列動作制御部30)によってアクセスされる。即ち、並列動作制御部30によって、起動フラグSF2がセットされると、フィルタ部60は、MB単位で、シーケンサ部50において動き予測又は動き補償を行った画像データのブロックノイズを低減させる処理(デブロックフィルタ処理)を行う。そして、デブロックフィルタ処理が完了すると、動作完了フラグEF2がセットされる。従って、動作完了フラグEF2は、並列動作制御部30によるフィルタ部60の起動後、動き予測又は動き補償後の画像データのブロックノイズを低減させる処理が完了したことを条件にセットされる。
1.3 Filter Unit As shown in FIG. 1, the filter unit 60 includes a start flag SF2 and an operation completion flag EF2 (second operation completion flag). The activation flag SF2 and the operation completion flag EF2 are accessed by the decoding process control unit 20 (parallel operation control unit 30). That is, when the activation flag SF2 is set by the parallel operation control unit 30, the filter unit 60 performs processing (decoding) for reducing block noise of image data subjected to motion prediction or motion compensation in the sequencer unit 50 in units of MB. Block filter processing). When the deblocking filter process is completed, the operation completion flag EF2 is set. Therefore, the operation completion flag EF2 is set on the condition that the processing for reducing the block noise of the image data after motion prediction or motion compensation is completed after the parallel operation control unit 30 starts the filter unit 60.

この動作完了フラグEF2のステータスは、並列動作制御部30によって監視され、並列動作制御部30が動作完了フラグEF2のステータスを読み出すことで、動作完了フラグEF2はリセットされるようになっている。   The status of the operation completion flag EF2 is monitored by the parallel operation control unit 30, and the operation completion flag EF2 is reset when the parallel operation control unit 30 reads the status of the operation completion flag EF2.

このようなフィルタ部60では、デブロックフィルタ62が、起動フラグSF2がセットされると、ブロック境界及びマクロブロック境界のうち少なくとも一方のブロックノイズを低減させる処理行うことができる。この処理は、H.264/AVC規格で規定された公知のデブロックフィルタ処理を採用できる。   In such a filter unit 60, when the activation flag SF2 is set, the deblocking filter 62 can perform a process of reducing block noise of at least one of the block boundary and the macroblock boundary. This process is described in H.264. A known deblocking filter process defined in the H.264 / AVC standard can be employed.

こうして、デブロックフィルタ処理が完了すると、動作完了フラグEF2がセットされる。なお、デブロックフィルタ処理後のデータは、出力画像の画像データとして出力される。この画像データは、出力画像バッファ70に格納される。   Thus, when the deblock filter processing is completed, the operation completion flag EF2 is set. Note that the data after the deblocking filter processing is output as image data of an output image. This image data is stored in the output image buffer 70.

このようなデブロックフィルタ処理により、ブロックノイズが多い参照画像を用いて復号化処理されることがなくなり、ブロックノイズの伝搬を減らして、復号画像の高画質化に寄与できるようになる。   By such a deblocking filter process, the decoding process is not performed using the reference image with a lot of block noise, and the propagation of the block noise can be reduced and the image quality of the decoded image can be improved.

1.4 並列動作
上述したデコード処理制御部20、シーケンサ部50、フィルタ部60の処理は、デコード処理制御部20の並列動作制御部30によって並列動作制御される。この並列動作制御部30の機能もまた、デコード処理制御部20の機能を実現するCPUにより実行されるソフトウェア処理によって実現できる。
1.4 Parallel Operation The processes of the decoding process control unit 20, the sequencer unit 50, and the filter unit 60 described above are controlled in parallel by the parallel operation control unit 30 of the decoding process control unit 20. The function of the parallel operation control unit 30 can also be realized by software processing executed by the CPU that realizes the function of the decoding process control unit 20.

図11及び図12に、並列動作制御部30の処理例のフロー図を示す。   11 and 12 are flowcharts of processing examples of the parallel operation control unit 30.

まず、並列動作制御部30は、ポーリングして動作完了フラグEF1、EF2を監視する(ステップS40)。そして、動作完了フラグEF1、EF2が変化したことを検出すると、並列動作制御部30は、シーケンサ部50の動作完了フラグEF1のステータスを読み出して保存する(ステップS41)。続いて、並列動作制御部30は、フィルタ部60の動作完了フラグEF2のステータスを読み出して保存する(ステップS42)。   First, the parallel operation control unit 30 polls and monitors the operation completion flags EF1 and EF2 (step S40). When detecting that the operation completion flags EF1 and EF2 have changed, the parallel operation control unit 30 reads and stores the status of the operation completion flag EF1 of the sequencer unit 50 (step S41). Subsequently, the parallel operation control unit 30 reads and stores the status of the operation completion flag EF2 of the filter unit 60 (step S42).

そして、並列動作制御部30は、デコード処理制御部20においてMB単位で行われる図6のストリームデータアクセス処理、図7のCAVLC処理、図10の逆量子化処理が完了したか否かを監視する(ステップS43)。MB単位で図10の逆量子化処理まで完了したことが検出されたとき(ステップS43:Y)、並列動作制御部30は、動作完了フラグEF1が「1」であるか否かを判別する(ステップS45)。ここで、動作完了フラグEF1が「1」のとき、シーケンサ部50における当該MBの処理が完了したことを示し、動作完了フラグEF1が「0」のとき、シーケンサ部50における当該MBの処理が未完了であることを示す。   Then, the parallel operation control unit 30 monitors whether or not the stream data access process of FIG. 6, the CAVLC process of FIG. 7, and the inverse quantization process of FIG. (Step S43). When it is detected that the process up to the inverse quantization process in FIG. 10 is completed in MB units (step S43: Y), the parallel operation control unit 30 determines whether or not the operation completion flag EF1 is “1” (step S43: Y). Step S45). Here, when the operation completion flag EF1 is “1”, this indicates that the processing of the MB in the sequencer unit 50 has been completed, and when the operation completion flag EF1 is “0”, the processing of the MB in the sequencer unit 50 has not been completed. Indicates completion.

ステップS43において、MB単位で図10の逆量子化処理まで完了していないことを検出されたとき(ステップS43:N)、並列動作制御部30は、再びタイムアウトを監視する(ステップS44:N)。そして、タイムアウトが検出されたとき(ステップS44:Y)、ステップS43に戻る。   When it is detected in step S43 that the inverse quantization process of FIG. 10 has not been completed in MB units (step S43: N), the parallel operation control unit 30 monitors the timeout again (step S44: N). . And when timeout is detected (step S44: Y), it returns to step S43.

ステップS45において、動作完了フラグEF1が「0」であることが検出されたとき(ステップS45:N)、並列動作制御部30は、再びタイムアウトを監視する(ステップS46:N)。そして、タイムアウトが検出されたとき(ステップS46:Y)、ステップS41と同様に、シーケンサ部50の動作完了フラグEF1のステータスを読み出して保存する(ステップS47)。その後、ステップS45に戻る。   In step S45, when it is detected that the operation completion flag EF1 is “0” (step S45: N), the parallel operation control unit 30 monitors the timeout again (step S46: N). When a time-out is detected (step S46: Y), the status of the operation completion flag EF1 of the sequencer unit 50 is read and stored as in step S41 (step S47). Thereafter, the process returns to step S45.

一方、ステップS45において、動作完了フラグEF1が「1」であることが検出されたとき(ステップS45:Y)、並列動作制御部30は、動作完了フラグEF2が「1」であるか否かを判別する(ステップS48)。ここで、動作完了フラグEF2が「1」のとき、フィルタ部60における当該MBの処理が完了したことを示し、動作完了フラグEF2が「0」のとき、フィルタ部60における当該MBの処理が未完了であることを示す。   On the other hand, when it is detected in step S45 that the operation completion flag EF1 is “1” (step S45: Y), the parallel operation control unit 30 determines whether or not the operation completion flag EF2 is “1”. It discriminate | determines (step S48). Here, when the operation completion flag EF2 is “1”, it indicates that the processing of the MB in the filter unit 60 is completed, and when the operation completion flag EF2 is “0”, the processing of the MB in the filter unit 60 is not yet performed. Indicates completion.

ステップS48において、動作完了フラグEF2が「0」であることが検出されたとき(ステップS48:N)、並列動作制御部30は、再びタイムアウトを監視する(ステップS49:N)。そして、タイムアウトが検出されたとき(ステップS49:Y)、ステップS42と同様に、フィルタ部60の動作完了フラグEF2のステータスを読み出して保存する(ステップS50)。その後、ステップS48に戻る。   In step S48, when it is detected that the operation completion flag EF2 is “0” (step S48: N), the parallel operation control unit 30 monitors the timeout again (step S49: N). When a time-out is detected (step S49: Y), the status of the operation completion flag EF2 of the filter unit 60 is read out and stored (step S50) as in step S42. Thereafter, the process returns to step S48.

ステップS48において、動作完了フラグEF2が「1」であることが検出されたとき(ステップS48:Y)、並列動作制御部30は、デコード処理制御部20においてMB単位で行われる図6のストリームデータアクセス処理、図7のCAVLC処理、図10の逆量子化処理の一連の処理を起動し、シーケンサ部50の起動フラグSF1をセットし、フィルタ部60の起動フラグSF2をセットする(ステップS51)。シーケンサ部50及びフィルタ部60を並列動作させるために起動する場合、フィルタ部60が起動されてからシーケンサ部50が起動されることが望ましい。こうすることで、デコード処理においてシーケンサ部50を起動させない場合であっても、いち早くフィルタ部60の動作を開始させることができるため、デコード処理の高速化に寄与できる。   When it is detected in step S48 that the operation completion flag EF2 is “1” (step S48: Y), the parallel operation control unit 30 performs the stream data of FIG. A series of processes of the access process, the CAVLC process of FIG. 7, and the inverse quantization process of FIG. 10 are activated, the activation flag SF1 of the sequencer unit 50 is set, and the activation flag SF2 of the filter unit 60 is set (step S51). When the sequencer unit 50 and the filter unit 60 are activated to operate in parallel, it is desirable that the sequencer unit 50 is activated after the filter unit 60 is activated. By doing so, even if the sequencer unit 50 is not activated in the decoding process, the operation of the filter unit 60 can be started quickly, which can contribute to the speeding up of the decoding process.

その後、並列動作制御部30では、動作完了フラグEF1、EF2のリード値をクリアして(ステップS52)、ステップS40に戻る。   Thereafter, the parallel operation control unit 30 clears the read values of the operation completion flags EF1 and EF2 (step S52) and returns to step S40.

このように、例えばMB1〜MB3(第1〜第3のデータブロック)をMB1から順番にデコード処理する場合に、MB3(第3のデータブロック)に対して逆量子化が終了し、且つ、MB2(第2のデータブロック)に対してシーケンサ部50からの動作完了フラグEF1がセット状態にあり、且つMB1(第1のデータブロック)に対してフィルタ部60からの動作完了フラグEF2がセット状態にすることを条件に、シーケンサ部50及びフィルタ部60が起動される。   Thus, for example, when MB1 to MB3 (first to third data blocks) are sequentially decoded from MB1, the inverse quantization for MB3 (third data block) ends, and MB2 The operation completion flag EF1 from the sequencer unit 50 is set for (second data block), and the operation completion flag EF2 from the filter unit 60 is set for MB1 (first data block). The sequencer unit 50 and the filter unit 60 are activated on the condition that this is done.

この結果、並列動作制御部30は、動作完了フラグEF1、EF2を所定の周期でポーリング動作を行うだけで済み、簡素な構成且つ制御で、並列動作制御を実現することができる。   As a result, the parallel operation control unit 30 only needs to perform the polling operation on the operation completion flags EF1 and EF2 at a predetermined cycle, and the parallel operation control can be realized with a simple configuration and control.

なお図1では、逆量子化部24の機能をデコード処理制御部20が実現するものとして説明したが、これに限定されるものではなく、デコード装置40のシーケンサ部50が逆量子化部24の機能を実現してもよい。   In FIG. 1, the function of the inverse quantization unit 24 has been described as being realized by the decoding process control unit 20, but the present invention is not limited to this, and the sequencer unit 50 of the decoding device 40 may be A function may be realized.

2. 情報再生装置
次に、本実施形態におけるデコードシステムが適用される情報再生装置について説明する。本実施形態における情報再生装置は、地上デジタル放送の再生を可能とし、H.264/AVC規格で符号化された映像データを復号することができる。
2. Information Reproducing Device Next, an information reproducing device to which the decoding system in the present embodiment is applied will be described. The information reproducing apparatus according to the present embodiment enables reproduction of terrestrial digital broadcasting. Video data encoded according to the H.264 / AVC standard can be decoded.

2.1 1セグメント放送の概要
地上アナログ放送に代わって登場する地上デジタル放送では、画像及び音声の高品質化に加えて種々の新サービスの提供に期待が寄せられている。
2.1 Overview of 1-segment broadcasting In terrestrial digital broadcasting that appears in place of terrestrial analog broadcasting, there are high expectations for the provision of various new services in addition to improving the quality of images and audio.

図13に、地上デジタル放送のセグメントの概念の説明図を示す。   FIG. 13 is an explanatory diagram of the concept of digital terrestrial broadcast segments.

地上デジタル放送では、予め割り当てられた周波数帯域を14個のセグメントに分割し、そのうちの13個のセグメントSEG1〜SEG13を使って放送が行われる。残り1個のセグメントは、ガードバンドとして用いられる。そして、放送を行うための13個のセグメントのうちの1個のセグメントSEGmが、携帯端末向けの放送の周波数帯域に割り当てられる。   In digital terrestrial broadcasting, a pre-assigned frequency band is divided into 14 segments, and broadcasting is performed using 13 segments SEG1 to SEG13. The remaining one segment is used as a guard band. Then, one segment SEGm out of 13 segments for broadcasting is allocated to the frequency band of broadcasting for mobile terminals.

1セグメント放送では、それぞれが符号化(圧縮処理)された映像データ、音声データ、その他のデータ(制御データ)が多重化されたトランスポートストリーム(Transport Stream:TS)が伝送される。より具体的には、TSの各パケットにリードソロモン符号の誤り訂正用符号が付加された後、階層分割され、各階層において畳み込み符号化やキャリア変調が施される。そして、階層合成後に、周波数インターリーブ、時間インターリーブが行われ、受信側に必要なパイロット信号を付加してOFDMセグメントフレームが形成される。このOFDMセグメントフレームに対し、逆フーリエ変換演算が施されてOFDM信号として伝送される。   In one-segment broadcasting, a transport stream (Transport Stream: TS) in which video data, audio data, and other data (control data) encoded (compressed) are multiplexed is transmitted. More specifically, a Reed-Solomon error correction code is added to each packet of the TS, and then divided into layers, and convolutional coding and carrier modulation are performed in each layer. After layer synthesis, frequency interleaving and time interleaving are performed, and a pilot signal necessary for the receiving side is added to form an OFDM segment frame. The OFDM segment frame is subjected to inverse Fourier transform operation and transmitted as an OFDM signal.

図14に、TSの説明図を示す。   FIG. 14 is an explanatory diagram of TS.

TSは、図14に示すように複数のTSパケット列で構成されている。各TSパケットの長さは、188バイトに固定されている。各TSパケットは、4バイトのTSヘッダ(TS Header:TSH)と呼ばれるヘッダ情報が付加されており、TSパケットの識別子となるPID(Packet Identifier)を含む。1セグメント放送の番組は、PIDにより特定される。   The TS is composed of a plurality of TS packet sequences as shown in FIG. The length of each TS packet is fixed to 188 bytes. Each TS packet has header information called a 4-byte TS header (TS header) added thereto, and includes a PID (Packet Identifier) serving as an identifier of the TS packet. One segment broadcast program is specified by PID.

TSパケットは、アダプテーションフィールドを含み、映像データ、音声データ等の同期再生の基準となる時刻情報であるPCR(Program Clock Reference)やダミーデータ
が埋め込まれる。ペイロードは、PES(Packetized Elementary Stream)パケットやセクションを生成するためのデータを含む。
The TS packet includes an adaptation field, and is embedded with PCR (Program Clock Reference) and dummy data which are time information serving as a reference for synchronous reproduction of video data, audio data, and the like. The payload includes data for generating a PES (Packetized Elementary Stream) packet or section.

図15に、PESパケット及びセクションの説明図を示す。   FIG. 15 is an explanatory diagram of PES packets and sections.

PESパケット及びセクションのそれぞれは、1又は複数のTSパケットの各TSパケットのペイロードにより構成される。PESパケットは、PESヘッダとペイロードとを含み、該ペイロードには、映像データ、音声データ又は字幕データがES(Elementary Stream)データとして設定される。セクションには、PESパケットに設定される映像データ等の番組情報等が設定される。   Each of the PES packet and the section is configured by the payload of each TS packet of one or a plurality of TS packets. The PES packet includes a PES header and a payload, and video data, audio data, or caption data is set as ES (Elementary Stream) data in the payload. In the section, program information such as video data set in the PES packet is set.

従って、TSを受信すると、まずセクションに含まれる番組情報を解析し、放送される番組に対応するPIDを特定する必要がある。そして、該PIDに対応する映像データ、音声データをTSから抽出し、抽出後の映像データ、音声データを再生することになる。   Therefore, when a TS is received, first, it is necessary to analyze program information included in the section and specify a PID corresponding to the broadcast program. Then, video data and audio data corresponding to the PID are extracted from the TS, and the extracted video data and audio data are reproduced.

2.2 携帯端末
1セグメント放送の受信機能を有する携帯端末では、上記のようなパケットの解析等の処理が必要となる。即ち、このような携帯端末では、高い処理能力が要求される。そのため、携帯端末(広義には電子機器)としての従来の携帯電話機に、1セグメント放送の受信機能を付加する場合には、高い処理能力を有するプロセッサ等を更に追加する必要がある。
2.2 Mobile terminal A mobile terminal having a 1-segment broadcast reception function requires processing such as packet analysis as described above. That is, such a mobile terminal is required to have a high processing capacity. Therefore, when a one-segment broadcast receiving function is added to a conventional mobile phone as a mobile terminal (electronic device in a broad sense), it is necessary to further add a processor or the like having a high processing capability.

図16に、本実施形態の比較例におけるマルチメディア処理CPUを含む携帯電話機の構成例のブロック図を示す。   FIG. 16 shows a block diagram of a configuration example of a mobile phone including a multimedia processing CPU in a comparative example of the present embodiment.

この携帯電話機900では、アンテナ910を介して受信された受信信号を復調して電話用CPU920が着呼処理を行い、電話用CPU920が発呼処理を行った信号が変調されてアンテナ910を介して送信される。電話用CPU920は、メモリ922に格納されたプログラムを読み込んで着呼処理及び発呼処理を行うことができる。   In this cellular phone 900, the received signal received via the antenna 910 is demodulated, the telephone CPU 920 performs the incoming call processing, and the signal processed by the telephone CPU 920 is modulated and transmitted via the antenna 910. Sent. The telephone CPU 920 can read a program stored in the memory 922 and perform incoming call processing and outgoing call processing.

またアンテナ930を介して受信された受信信号から、チューナ940を介して希望信号が取り出されると、該希望信号をOFDM信号として上記と逆の手順でTSが生成される。マルチメディア処理CPU950は、生成されたTSからTSパケットを解析してPESパケット及びセクションを判別し、所望の番組のTSパケットから映像データ、音声データのデコード処理を行う。マルチメディア処理CPU950は、メモリ952に格納されたプログラムを読み込んで上記のパケットの解析処理やデコード処理を行うことができる。表示パネル960は、デコード処理後の映像データに基づいて表示出力を行い、スピーカ970は、デコード処理後の音声データに基づいて音声出力を行う。   When a desired signal is extracted from the received signal received via the antenna 930 via the tuner 940, a TS is generated by using the desired signal as an OFDM signal in the reverse procedure. The multimedia processing CPU 950 analyzes the TS packet from the generated TS, determines the PES packet and the section, and decodes video data and audio data from the TS packet of the desired program. The multimedia processing CPU 950 can read the program stored in the memory 952 and perform the above-described packet analysis processing and decoding processing. The display panel 960 performs display output based on the decoded video data, and the speaker 970 performs audio output based on the decoded audio data.

このようにマルチメディア処理CPU950として、非常に高い処理能力が必要となる。高い処理能力を有するプロセッサは、一般的に、動作周波数が高くなったり、回路規模が大きくなってしまう。   In this way, the multimedia processing CPU 950 requires a very high processing capability. In general, a processor having a high processing capability has a high operating frequency and a large circuit scale.

ところで、1セグメント放送のビットレートを考慮すると、その帯域のほとんどが映像データや音声データの帯域となり、データ放送自体の帯域が狭くなると考えられる。従って、マルチメディア処理CPUで実現できる処理のうち、映像データや音声データの再生処理のみで済む場合もあるにもかかわらず、マルチメディア処理CPUを常に動作させる必要があり、消費電力の増大を招く。   By the way, considering the bit rate of 1-segment broadcasting, most of the bandwidth is considered to be the bandwidth for video data and audio data, and the bandwidth for data broadcasting itself is narrowed. Accordingly, among the processes that can be realized by the multimedia processing CPU, it is necessary to always operate the multimedia processing CPU even though only the reproduction processing of video data and audio data may be required, resulting in an increase in power consumption. .

そこで、本実施形態では、映像データのデコード処理を行う映像デコーダと音声データのデコード処理を行う音声デコーダとを独立して設け、それぞれ独立にデコード処理を行わせることで、それぞれの処理能力として低いものを採用できる。更に、映像デコーダ及び音声データの一方の動作を適宜停止させて柔軟に低消費電力化を図ることができる。   Therefore, in this embodiment, a video decoder that performs video data decoding processing and an audio decoder that performs audio data decoding processing are provided independently, and the decoding processing is performed independently, thereby reducing the processing capability of each. You can adopt things. Furthermore, it is possible to flexibly reduce power consumption by appropriately stopping one of the operations of the video decoder and the audio data.

更には、映像デコーダ及び音声デコーダを並列動作させることができるため、各デコーダの処理能力を低くて済み、より低消費電力化及び低コスト化を実現できる。   Furthermore, since the video decoder and the audio decoder can be operated in parallel, the processing capability of each decoder can be reduced, and lower power consumption and cost can be realized.

図17に、本実施形態における情報再生装置を含む携帯電話機の構成例のブロック図を示す。なお図17において、図16と同一部分には同一符号を付し、適宜説明を省略する。   FIG. 17 shows a block diagram of a configuration example of a mobile phone including the information reproducing apparatus in the present embodiment. In FIG. 17, the same parts as those in FIG. 16 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

携帯電話機(広義には電子機器)100は、ホストCPU(広義にはホスト)110、RAM(Random Access Memory)120、ROM(Read Only Memory)130、表示ドライバ140、DAC(Digital-to-Analog Converter)150、画像処理IC(Integrated Circuit)(広義には情報再生装置)200を含むことができる。更に携帯電話機100は、アンテナ910、930、チューナ940、表示パネル960、スピーカ970を含む。   A cellular phone (electronic device in a broad sense) 100 includes a host CPU (host in a broad sense) 110, a RAM (Random Access Memory) 120, a ROM (Read Only Memory) 130, a display driver 140, a DAC (Digital-to-Analog Converter). ) 150, and an image processing IC (Integrated Circuit) (information reproducing apparatus in a broad sense) 200. Further, the cellular phone 100 includes antennas 910 and 930, a tuner 940, a display panel 960, and a speaker 970.

ホストCPU110は、図16の電話用CPU920の機能を有すると共に、画像処理IC200を制御する機能を有する。ホストCPU110は、RAM120又はROM130に格納されたプログラムを読み出し、図16の電話用CPU920の処理、画像処理IC200を制御する処理を行う。この際、ホストCPU110は、RAM120をワークエリアとして用いることができる。   The host CPU 110 has a function of controlling the image processing IC 200 as well as the function of the telephone CPU 920 of FIG. The host CPU 110 reads a program stored in the RAM 120 or the ROM 130, and performs processing of the telephone CPU 920 in FIG. 16 and processing of controlling the image processing IC 200. At this time, the host CPU 110 can use the RAM 120 as a work area.

画像処理IC200は、チューナ940からのTSから、映像データを生成するための映像用TSパケット(第1のTSパケット)、音声データを生成するための音声用TSパケット(第2のTSパケット)を抽出し、図示しない共有メモリにバッファリングする。そして画像処理IC200は、互いに独立して動作停止制御が可能な映像デコーダ及び音声デコーダ(図示せず)を含み、映像デコーダ及び音声デコーダが、それぞれ映像用TSパケット及び音声用TSパケットをデコードして映像データ及び音声データを生成する。映像データ及び音声データは、同期しながら、それぞれ表示ドライバ140及びDAC150に供給される。ホストCPU110は、このような画像処理IC200に対し、映像デコード処理及び音声デコード処理の処理開始を指示することができる。なおホストCPU110は、画像処理IC200に対し、映像デコード処理及び音声デコード処理の少なくとも1つの処理開始を指示するようにしてもよい。   The image processing IC 200 receives, from the TS from the tuner 940, a video TS packet (first TS packet) for generating video data and an audio TS packet (second TS packet) for generating audio data. Extract and buffer in a shared memory (not shown). The image processing IC 200 includes a video decoder and an audio decoder (not shown) capable of controlling the operation stop independently of each other. The video decoder and the audio decoder decode the video TS packet and the audio TS packet, respectively. Video data and audio data are generated. The video data and the audio data are supplied to the display driver 140 and the DAC 150, respectively, while being synchronized. The host CPU 110 can instruct the image processing IC 200 to start the video decoding process and the audio decoding process. The host CPU 110 may instruct the image processing IC 200 to start at least one of video decoding processing and audio decoding processing.

表示ドライバ(広義には駆動回路)140は、映像データに基づいて表示パネル(広義には電気光学装置)960を駆動する。より具体的には、表示パネル960は、複数の走査線、複数のデータ線、各画素が各走査線及び各データ線により特定される複数の画素を有し、表示パネル960として液晶表示(Liquid Crystal Display)パネルを採用できる。表示ドライバ140は、複数の走査線を走査する走査ドライバの機能と、該映像データに基づいて複数のデータ線を駆動するデータドライバの機能とを有する。   A display driver (driving circuit in a broad sense) 140 drives a display panel (electro-optical device in a broad sense) 960 based on video data. More specifically, the display panel 960 includes a plurality of scanning lines, a plurality of data lines, and a plurality of pixels, each pixel being specified by each scanning line and each data line. Crystal Display panel can be used. The display driver 140 has a function of a scanning driver that scans a plurality of scanning lines and a function of a data driver that drives a plurality of data lines based on the video data.

DAC150は、デジタル信号である音声データをアナログ信号に変換し、スピーカ970に供給する。スピーカ970は、DAC150からのアナログ信号に対応した音声出力を行う。   The DAC 150 converts audio data that is a digital signal into an analog signal and supplies the analog signal to the speaker 970. The speaker 970 outputs sound corresponding to the analog signal from the DAC 150.

2.3 情報再生装置
図18に、本実施形態の情報再生装置としての図17の画像処理IC200の構成例のブロック図を示す。
2.3 Information Reproducing Device FIG. 18 is a block diagram showing a configuration example of the image processing IC 200 shown in FIG. 17 as the information reproducing device of this embodiment.

画像処理IC200は、TS分離部(分離処理部)210と、メモリ(共有メモリ)220と、映像デコーダ230と、音声デコーダ240とを含む。また画像処理IC200は、更に、表示制御部250と、チューナI/F(Interface)260と、ホストI/F
270と、ドライバI/F280と、オーディオI/F290とを含む。
The image processing IC 200 includes a TS separation unit (separation processing unit) 210, a memory (shared memory) 220, a video decoder 230, and an audio decoder 240. The image processing IC 200 further includes a display control unit 250, a tuner I / F (Interface) 260, and a host I / F.
270, a driver I / F 280, and an audio I / F 290.

ここで、映像デコーダ230は、図示しないCPUを含み、映像デコーダ230の機能が、本実施形態におけるデコード処理制御部20の機能を果たすCPU及びデコード装置40によって実現される。   Here, the video decoder 230 includes a CPU (not shown), and the function of the video decoder 230 is realized by the CPU and the decoding device 40 that perform the function of the decoding processing control unit 20 in the present embodiment.

TS分離部210は、映像データを生成するための映像用TSパケット(第1のTSパケット)、音声データを生成するための音声用TSパケット(第2のTSパケット)、映像用TSパケット及び音声用TSパケット以外のパケット(第3のTSパケット)を、TSから抽出する。TS分離部210は、TSから一旦抽出された第3のTSパケットを解析するホストCPU110の解析結果に基づいて、第1及び第2のTSパケットを抽出することができる。   The TS separation unit 210 includes a video TS packet (first TS packet) for generating video data, an audio TS packet (second TS packet) for generating audio data, a video TS packet, and audio. Packets other than the TS packet for use (third TS packet) are extracted from the TS. The TS separation unit 210 can extract the first and second TS packets based on the analysis result of the host CPU 110 that analyzes the third TS packet once extracted from the TS.

メモリ220は、各記憶領域の先頭アドレス及び終了アドレスが予め決められた複数の記憶領域を有する。そして、TS分離部210により分離された映像用TSパケット、音声用TSパケット、それ以外のTSパケットのそれぞれが、各TSパケット専用に設けられた記憶領域に格納される。   The memory 220 has a plurality of storage areas in which the start address and end address of each storage area are determined in advance. Then, each of the video TS packet, audio TS packet, and other TS packets separated by the TS separation unit 210 is stored in a storage area dedicated to each TS packet.

映像デコーダ230は、メモリ220の記憶領域のうち映像用TSパケット専用に設けられた記憶領域から映像用TSパケットを読み出し、該映像用TSパケットに基づいて映像データを生成する映像デコード処理を行う。より具体的には、映像デコード処理のうち、図1のデコード処理制御部20によって行われる処理、シーケンサ部50によって行われる処理、及びフィルタ部60によって行われる処理が並列して実行される。   The video decoder 230 reads a video TS packet from a storage area dedicated to the video TS packet in the storage area of the memory 220 and performs video decoding processing for generating video data based on the video TS packet. More specifically, in the video decoding process, the process performed by the decoding process control unit 20 in FIG. 1, the process performed by the sequencer unit 50, and the process performed by the filter unit 60 are executed in parallel.

音声デコーダ240は、メモリ220の記憶領域のうち音声用TSパケット専用に設けられた記憶領域から音声用TSパケットを読み出し、該音声用TSパケットに基づいて音声データを生成する音声デコード処理を行う。   The audio decoder 240 reads the audio TS packet from the storage area dedicated to the audio TS packet in the storage area of the memory 220 and performs audio decoding processing for generating audio data based on the audio TS packet.

表示制御部250は、メモリ220から読み出された映像データにより表される画像の向きを回転させる回転処理や該画像のサイズを縮小又は拡大させるリサイズ処理を行う。回転処理後のデータやリサイズ処理後のデータは、ドライバI/F280に供給される。   The display control unit 250 performs a rotation process for rotating the orientation of the image represented by the video data read from the memory 220 and a resizing process for reducing or enlarging the size of the image. The data after the rotation processing and the data after the resizing processing are supplied to the driver I / F 280.

チューナI/F260は、チューナ940とのインタフェース処理を行う。より具体的には、チューナI/F260は、チューナ940からのTSを受信する制御を行う。チューナI/F260は、TS分離部210に接続される。   The tuner I / F 260 performs an interface process with the tuner 940. More specifically, the tuner I / F 260 performs control to receive a TS from the tuner 940. Tuner I / F 260 is connected to TS separator 210.

ホストI/F270は、ホストCPU110とのインタフェース処理を行う。より具体的には、ホストI/F270は、ホストCPU110との間のデータの送受信の制御を行う。ホストI/F270は、TS分離部210、メモリ220、表示制御部250、オーディオI/F290に接続される。   The host I / F 270 performs interface processing with the host CPU 110. More specifically, the host I / F 270 controls data transmission / reception with the host CPU 110. The host I / F 270 is connected to the TS separation unit 210, the memory 220, the display control unit 250, and the audio I / F 290.

ドライバI/F280は、表示制御部250を介してメモリ220から所定の周期で映像データを読み出し、該映像データを表示ドライバ140に対して供給する。ドライバI/F280は、表示ドライバ140に対して映像データを送信するためのインタフェース処理を行う。   The driver I / F 280 reads video data from the memory 220 via the display control unit 250 at a predetermined cycle, and supplies the video data to the display driver 140. The driver I / F 280 performs interface processing for transmitting video data to the display driver 140.

オーディオI/F290は、メモリ220から所定の周期で音声データを読み出し、該音声データをDAC150に対して供給する。オーディオI/F290は、DAC150に対して音声データを送信するためのインタフェース処理を行う。   The audio I / F 290 reads audio data from the memory 220 at a predetermined cycle and supplies the audio data to the DAC 150. The audio I / F 290 performs interface processing for transmitting audio data to the DAC 150.

このような画像処理IC200では、TS分離部210により、チューナ940からのTSからTSパケットが抽出される。TSパケットは、共有メモリとしてのメモリ220の予め割り当てられた記憶領域に格納される。そして、映像デコーダ230及び音声デコーダ240が、それぞれメモリ220に割り当てられた専用の記憶領域からTSパケットを読み出して、映像データ及び音声データを生成し、互いに同期した映像データ及び音声データを表示ドライバ140及びDAC150に対して供給することができる。   In such an image processing IC 200, the TS packet is extracted from the TS from the tuner 940 by the TS separator 210. The TS packet is stored in a pre-allocated storage area of the memory 220 as a shared memory. Then, the video decoder 230 and the audio decoder 240 respectively read out TS packets from dedicated storage areas allocated to the memory 220, generate video data and audio data, and display the synchronized video data and audio data with the display driver 140. And to the DAC 150.

図19に、図18の画像処理IC200の動作説明図を示す。   FIG. 19 shows an operation explanatory diagram of the image processing IC 200 of FIG.

図19において、図18と同一部分には同一符号を付し、適宜説明を省略する。   19, the same parts as those in FIG. 18 are denoted by the same reference numerals, and the description thereof will be omitted as appropriate.

メモリ220は、第1〜第8の記憶領域AR1〜AR8を有し、各記憶領域が予め割り当てられている。   The memory 220 has first to eighth storage areas AR1 to AR8, and each storage area is assigned in advance.

第1の記憶領域AR1には、映像用TSパケット専用の記憶領域として、TS分離部210によって抽出された映像用TSパケット(第1のTSパケット)が格納される。第2の記憶領域AR2には、音声用TSパケット専用の記憶領域として、TS分離部210によって抽出された音声用TSパケット(第2のTSパケット)が格納される。第3の記憶領域AR3には、TS分離部210によって抽出されたTSパケットのうち映像用TSパケット及び音声用TSパケットを除くTSパケット(第3のTSパケット)が格納される。   The first storage area AR1 stores the video TS packet (first TS packet) extracted by the TS separation unit 210 as a storage area dedicated to the video TS packet. The second storage area AR2 stores the voice TS packet (second TS packet) extracted by the TS separation unit 210 as a storage area dedicated to the voice TS packet. In the third storage area AR3, TS packets (third TS packets) excluding video TS packets and audio TS packets among the TS packets extracted by the TS separator 210 are stored.

第4の記憶領域AR4には、映像用ESデータ専用の記憶領域として、映像デコーダ230によって生成された映像用ESデータが格納される。第5の記憶領域AR5には、音声用ESデータ専用の記憶領域として、音声デコーダ240によって生成された音声用ESデータが格納される。   The fourth storage area AR4 stores the video ES data generated by the video decoder 230 as a storage area dedicated to the video ES data. The fifth storage area AR5 stores the audio ES data generated by the audio decoder 240 as a storage area dedicated to the audio ES data.

第6の記憶領域AR6には、ホストCPU110によって生成されるTSが、TSRAWデータとして格納される。TSRAWデータは、チューナ940からのTSに替わってホストCPU110により設定される。そして、TS分離部210は、TSRAWデータとして設定されたTSから、映像用TSパケット、音声用TSパケット、その他のTSパケットが抽出されるようになっている。   In the sixth storage area AR6, a TS generated by the host CPU 110 is stored as TSRAW data. TSRAW data is set by the host CPU 110 instead of the TS from the tuner 940. Then, the TS separation unit 210 extracts a video TS packet, an audio TS packet, and other TS packets from the TS set as TSRAW data.

第7の記憶領域AR7には、映像デコーダ230によるデコード処理後の映像データが格納される。第7の記憶領域AR7に格納された映像データは、表示制御部250によって読み出され、表示パネル960による映像出力に供される。第8の記憶領域AR8には、音声デコーダ240によるデコード処理後の音声データが格納される。第8の記憶領域AR8に格納された音声データは、スピーカ970による音声出力に供される。   In the seventh storage area AR7, video data after decoding by the video decoder 230 is stored. The video data stored in the seventh storage area AR7 is read by the display control unit 250 and used for video output by the display panel 960. The eighth storage area AR8 stores the audio data after the decoding process by the audio decoder 240. The audio data stored in the eighth storage area AR8 is provided for audio output by the speaker 970.

映像デコーダ230は、ヘッダ削除処理部232と、映像デコード処理部234とを含む。ヘッダ削除処理部232は、第1の記憶領域AR1から映像用TSパケットを読み出し、該映像用TSパケットのTSヘッダを解析してPESパケット(第1のPESパケット)を生成した後、そのPESヘッダを削除する処理を行ってそのペイロード部を映像用ESデータとしてメモリ220の第4の記憶領域AR4に格納する。映像デコード処理部234は、第4の記憶領域AR4から映像用ESデータを読み出し、H.264/AVC(Advanced Video Coding)の規格に従ったデコード処理(広義には映像デコード処理)
を行って生成される映像データを第7の記憶領域AR7に書き込む。
The video decoder 230 includes a header deletion processing unit 232 and a video decoding processing unit 234. The header deletion processing unit 232 reads the video TS packet from the first storage area AR1, analyzes the TS header of the video TS packet, generates a PES packet (first PES packet), and then generates the PES header. The payload portion is stored in the fourth storage area AR4 of the memory 220 as video ES data. The video decoding processing unit 234 reads video ES data from the fourth storage area AR4, H.264 / AVC (Advanced Video Coding) standard decoding process (video decoding process in a broad sense)
Are written in the seventh storage area AR7.

音声デコーダ240は、ヘッダ削除処理部242と、音声デコード処理部244とを含む。ヘッダ削除処理部242は、第2の記憶領域AR2から音声用TSパケットを読み出し、該音声用TSパケットのTSヘッダを解析してPESパケット(第2のPESパケット)を生成した後、そのPESヘッダを削除する処理を行ってそのペイロード部を音声用ESデータとしてメモリ220の第5の記憶領域AR5に格納する。音声デコード処理部244は、第5の記憶領域AR5から音声用ESデータを読み出し、MPEG−2AAC(Advanced Audio Coding)の規格に従ったデコード処理(広義には音声デコード処理)
を行って生成される音声データを第8の記憶領域AR8に書き込む。
The audio decoder 240 includes a header deletion processing unit 242 and an audio decoding processing unit 244. The header deletion processing unit 242 reads the audio TS packet from the second storage area AR2, analyzes the TS header of the audio TS packet, generates a PES packet (second PES packet), and then generates the PES header. The payload portion is stored as audio ES data in the fifth storage area AR5 of the memory 220. The audio decoding processing unit 244 reads audio ES data from the fifth storage area AR5, and performs decoding processing (audio decoding processing in a broad sense) in accordance with the MPEG-2 AAC (Advanced Audio Coding) standard.
Is written in the eighth storage area AR8.

そして、映像デコーダ230が、第1の記憶領域AR1から映像用TSパケット(第1のTSパケット)を、音声デコーダ240とは独立して読み出し、該映像用TSパケットに基づいて上記の映像デコード処理を行う。また音声デコーダ240が、第2の記憶領域AR2から音声用TSパケット(第2のTSパケット)を、映像デコーダ230とは独立して読み出し、該音声用TSパケットに基づいて上記の音声デコード処理を行う。こうすることで、映像と音声とを同期させて出力させる場合には映像デコーダ230及び音声デコーダ240を動作させることができる一方、映像のみを出力させる場合には映像デコーダ230のみを動作させて音声デコーダ240の動作を停止させることができる。また音声のみを出力させる場合には音声デコーダ240のみを動作させて映像デコーダ230の動作を停止させることができる。   Then, the video decoder 230 reads the video TS packet (first TS packet) from the first storage area AR1, independently of the audio decoder 240, and performs the video decoding process based on the video TS packet. I do. Also, the audio decoder 240 reads the audio TS packet (second TS packet) from the second storage area AR2 independently of the video decoder 230, and performs the above audio decoding process based on the audio TS packet. Do. In this way, the video decoder 230 and the audio decoder 240 can be operated when the video and audio are output in synchronism, while only the video decoder 230 is operated and output when only the video is output. The operation of the decoder 240 can be stopped. When outputting only audio, only the audio decoder 240 can be operated to stop the operation of the video decoder 230.

ホストCPU110は、第3の記憶領域AR3に格納されたその他のTSパケット(第3のTSパケット)を読み出し、該TSパケットからセクションを生成する。そして該セクションに含まれる各種テーブル情報を解析する。ホストCPU110は、その解析結果をメモリ220の所定の記憶領域に設定すると共にTS分離部210に対し制御情報として指定する。それ以降、TS分離部210は、チューナ940からのTSを該制御情報に従ってTSパケットを抽出する。一方、ホストCPU110は、映像デコーダ230及び音声デコーダ240に対して、それぞれ別個に起動コマンドを発行することができる。映像デコーダ230及び音声デコーダ240は、それぞれ独立してメモリ220にアクセスしてホストCPU110の解析結果を読み出し、該解析結果に対応したデコード処理を行う。   The host CPU 110 reads another TS packet (third TS packet) stored in the third storage area AR3, and generates a section from the TS packet. Then, various table information included in the section is analyzed. The host CPU 110 sets the analysis result in a predetermined storage area of the memory 220 and specifies it as control information for the TS separation unit 210. Thereafter, the TS separation unit 210 extracts TS packets from the tuner 940 according to the control information. On the other hand, the host CPU 110 can issue activation commands to the video decoder 230 and the audio decoder 240 separately. The video decoder 230 and the audio decoder 240 independently access the memory 220, read the analysis result of the host CPU 110, and perform a decoding process corresponding to the analysis result.

2.3.1 再生動作
次に、本実施形態における情報再生装置としての画像処理IC200において、TSに多重化された映像データ又は音声データを再生する場合の動作について説明する。
2.3.1 Reproduction Operation Next, an operation in the case of reproducing video data or audio data multiplexed on a TS in the image processing IC 200 as an information reproduction apparatus in the present embodiment will be described.

図20に、ホストCPU110による再生処理の動作例のフロー図を示す。ホストCPU110は、RAM120又はROM130に格納されたプログラムを読み出し、該プログラムに対応した処理を実行することで図20に示す処理を行うことができるようになっている。   FIG. 20 shows a flowchart of an operation example of reproduction processing by the host CPU 110. The host CPU 110 can perform the process shown in FIG. 20 by reading a program stored in the RAM 120 or the ROM 130 and executing a process corresponding to the program.

まずホストCPU110は、放送受信開始処理を行う(ステップS100)。これによって、TSとして受信された複数の番組のうち所望の番組の映像データ又は音声データをTSから抽出することができる。そして、ホストCPU110は、画像処理IC200の映像デコーダ230及び音声デコーダ240の少なくとも1つを起動させる。   First, the host CPU 110 performs a broadcast reception start process (step S100). Thereby, video data or audio data of a desired program among a plurality of programs received as a TS can be extracted from the TS. Then, the host CPU 110 activates at least one of the video decoder 230 and the audio decoder 240 of the image processing IC 200.

その後、ホストCPU110は、映像及び音声の再生を行う場合には映像デコーダ230及び音声デコーダ240によりデコード処理を行わせる。或いはホストCPU110は、映像のみの再生を行う場合には音声デコーダ240の動作を停止させて映像デコーダ230によりデコード処理を行わせる。或いはまた、ホストCPU110は、音声のみの再生を行う場合には映像デコーダ230の動作を停止させて音声デコーダ240によりデコード処理を行わせる(ステップS101)。   Thereafter, the host CPU 110 causes the video decoder 230 and the audio decoder 240 to perform decoding processing when reproducing video and audio. Alternatively, the host CPU 110 stops the operation of the audio decoder 240 and causes the video decoder 230 to perform decoding processing when reproducing only the video. Alternatively, when reproducing only audio, the host CPU 110 stops the operation of the video decoder 230 and causes the audio decoder 240 to perform decoding processing (step S101).

次に、ホストCPU110は、放送受信終了処理を行い(ステップS102)、一連の処理を終了する(エンド)。これによって、ホストCPU110は、画像処理IC200の各部の動作を停止させる。   Next, the host CPU 110 performs broadcast reception end processing (step S102), and ends a series of processing (end). As a result, the host CPU 110 stops the operation of each unit of the image processing IC 200.

2.3.1.1 放送受信開始処理
続いて、図20に示す放送受信開始処理の処理例について説明する。ここでは、映像及び音声の再生を行う場合について説明する。
2.3.1.1 Broadcast Reception Start Process Next, a process example of the broadcast reception start process shown in FIG. 20 will be described. Here, a case where video and audio are reproduced will be described.

図21に、図20の放送受信開始処理の動作例のフロー図を示す。ホストCPU110は、RAM120又はROM130に格納されたプログラムを読み出し、該プログラムに対応した処理を実行することで図21に示す処理を行うことができるようになっている。   FIG. 21 shows a flowchart of an operation example of the broadcast reception start process of FIG. The host CPU 110 can perform the process shown in FIG. 21 by reading a program stored in the RAM 120 or the ROM 130 and executing a process corresponding to the program.

まずホストCPU110は、画像処理IC200の映像デコーダ230、音声デコーダ240を起動する(ステップS110)。その後、ホストCPU110は、チューナ940を初期化すると共に所与の動作情報を設定する(ステップS111)。そしてホストCPU110は、DAC150に対しても初期化を行って所与の動作情報を設定する(ステップS112)。   First, the host CPU 110 activates the video decoder 230 and the audio decoder 240 of the image processing IC 200 (step S110). Thereafter, the host CPU 110 initializes the tuner 940 and sets given operation information (step S111). Then, the host CPU 110 also initializes the DAC 150 and sets given operation information (step S112).

その後ホストCPU110は、TSの受信を監視する(ステップS113:N)。TSの受信が開始されると、画像処理IC200では、TS分離部210が、上述のようにTSから映像用TSパケット、音声用TSパケット及びそれ以外のTSパケットに分離し、分離されたTSパケットは、専用に設けられたメモリ220の記憶領域に格納される。例えば画像処理IC200のメモリ220における第3の記憶領域AR3にTSパケットが格納されたことを条件に発生する割り込み信号により、ホストCPU110はTSの受信を検出できる。或いはホストCPU110が、周期的にメモリ220の第3の記憶領域AR3をアクセスすることで、TSパケットの書き込みが行われた否かを判断して、TSの受信を判別できる。   Thereafter, the host CPU 110 monitors reception of TS (step S113: N). When reception of the TS is started, in the image processing IC 200, the TS separation unit 210 separates the TS from the TS into the video TS packet, the audio TS packet, and the other TS packets as described above, and the separated TS packet. Is stored in a storage area of a memory 220 provided for exclusive use. For example, the host CPU 110 can detect reception of a TS by an interrupt signal generated on the condition that a TS packet is stored in the third storage area AR3 in the memory 220 of the image processing IC 200. Alternatively, the host CPU 110 can periodically determine whether the TS packet has been written by accessing the third storage area AR3 of the memory 220, thereby determining the reception of the TS.

このようにしてTSの受信が検出されたとき(ステップS113:Y)、ホストCPU110は、第3の記憶領域AR3に記憶されたTSパケットを読み出してセクションを生成する。そして、セクションに含まれるPSI(Program Specific Information:番組特定情報)/SI(Service Information:番組配列情報)を解析する(ステップS114)。このPSI/SIは、MPEG−2システム(ISO/IEC 13818-1)にて規定されている。   When reception of a TS is detected in this way (step S113: Y), the host CPU 110 reads a TS packet stored in the third storage area AR3 and generates a section. Then, PSI (Program Specific Information) / SI (Service Information: program arrangement information) included in the section is analyzed (step S114). This PSI / SI is defined by the MPEG-2 system (ISO / IEC 13818-1).

PSI/SIは、NIT(Network Information Table:ネットワーク情報テーブル)
やPMT(Program Map Table:番組対応テーブル)を含む。NITは、例えばどの放送
局からのTSかを特定するためのネットワーク識別子、PMTを特定するためのサービス識別子、放送の種類を示すサービスタイプ識別子等を含む。PMTには、例えばTSにおいて多重化される映像用TSパケットのPIDと音声用TSパケットのPIDが設定される。
PSI / SI is NIT (Network Information Table)
And PMT (Program Map Table). The NIT includes, for example, a network identifier for specifying which broadcasting station the TS is from, a service identifier for specifying the PMT, a service type identifier indicating the type of broadcast, and the like. In the PMT, for example, the PID of the video TS packet multiplexed in the TS and the PID of the audio TS packet are set.

従って、ホストCPU110は、PSI/SIからPMTを特定するためのサービス識別子を抽出し、該サービス識別子に基づき、受信したTSの映像用TSパケット及び音声用TSパケットのPIDを特定できる(ステップS115)。そして、携帯端末のユーザに選択させた番組に対応するPID、若しくは予め決められた番組に対応するPIDを、ホストCPU110が、映像デコーダ230及び音声デコーダ240に参照できるようにメモリ220の所定の記憶領域(例えば第3の記憶領域AR3)に設定し(ステップS116)、一連の処理を終了する(エンド)。   Therefore, the host CPU 110 extracts a service identifier for specifying the PMT from the PSI / SI, and can specify the PID of the received video TS packet and audio TS packet based on the service identifier (step S115). . Then, a predetermined storage in the memory 220 is provided so that the host CPU 110 can refer to the video decoder 230 and the audio decoder 240 for the PID corresponding to the program selected by the user of the mobile terminal or the PID corresponding to the predetermined program. An area (for example, the third storage area AR3) is set (step S116), and a series of processing ends (end).

こうすることで、映像デコーダ230及び音声デコーダ240は、メモリ220に設定されたPIDを参照しながら、映像用TSパケット及び音声用TSパケットに対してデコード処理を行うことができる。   In this way, the video decoder 230 and the audio decoder 240 can perform decoding processing on the video TS packet and the audio TS packet while referring to the PID set in the memory 220.

なおホストCPU110は、例えばPMTを特定するためのサービス識別子に対応する情報を、画像処理IC200のTS分離部210に設定する。こうすることで、TS分離部210は、所定の時間間隔を置いて周期的に受信されるセクションを判別し、上記のサービス識別子に対応したPMTを解析し、該PMTにより特定される映像用TSパケット及び音声用TSパケットとそれ以外のTSパケットを抽出してメモリ220に格納していく。   The host CPU 110 sets information corresponding to, for example, a service identifier for specifying the PMT in the TS separation unit 210 of the image processing IC 200. In this way, the TS separation unit 210 determines a section periodically received at a predetermined time interval, analyzes the PMT corresponding to the service identifier, and identifies the video TS specified by the PMT. Packets and TS packets for voice and other TS packets are extracted and stored in the memory 220.

図22に、図18及び図19の画像処理IC200の放送受信開始処理における動作説明図を示す。図22において、図18又は図19と同一部分には同一符号を付し、適宜説明を省略する。   FIG. 22 is an operation explanatory diagram of the broadcast reception start process of the image processing IC 200 of FIGS. 18 and 19. In FIG. 22, the same parts as those in FIG. 18 or FIG.

なお図22において、第7の記憶領域AR7を第4の記憶領域AR4と共用化し、第8の記憶領域AR8を第5の記憶領域AR5と共用化している。また、PSI/SI、NIT、PMTは、第3の記憶領域AR3内の所定の記憶領域に格納されるものとする。   In FIG. 22, the seventh storage area AR7 is shared with the fourth storage area AR4, and the eighth storage area AR8 is shared with the fifth storage area AR5. In addition, PSI / SI, NIT, and PMT are stored in a predetermined storage area in the third storage area AR3.

まずチューナ940からTSが入力される(SQ1)とTS分離部210は、PSI/SIが含まれるTSパケットをメモリ220に格納する(SQ2)。このとき、TS分離部210は、該TSパケットのPSI/SI自体を抽出してメモリ220に格納することができる。更にTS分離部210は、PSI/SIからNITを抽出してメモリ220に格納することができる。   First, when TS is input from the tuner 940 (SQ1), the TS separation unit 210 stores a TS packet including PSI / SI in the memory 220 (SQ2). At this time, the TS separation unit 210 can extract the PSI / SI itself of the TS packet and store it in the memory 220. Further, the TS separation unit 210 can extract the NIT from the PSI / SI and store it in the memory 220.

ホストCPU110は、PSI/SI、NIT、PMTを読み出して(SQ3)、これらを解析し、デコード処理対象の番組に対応するPIDを特定する。そしてホストCPU110は、サービス識別子に対応する情報又はデコード処理対象の番組に対応するPIDを、TS分離部210に設定する(SQ4)。なおホストCPU110は、PIDを、メモリ220の所定の記憶領域にも設定し、映像デコーダ230及び音声デコーダ240のデコード処理の際に参照させる。   The host CPU 110 reads PSI / SI, NIT, and PMT (SQ3), analyzes them, and identifies the PID corresponding to the program to be decoded. Then, the host CPU 110 sets information corresponding to the service identifier or PID corresponding to the program to be decoded in the TS separation unit 210 (SQ4). The host CPU 110 also sets the PID in a predetermined storage area of the memory 220 and refers to it during decoding processing by the video decoder 230 and the audio decoder 240.

TS分離部210は、設定されたPIDに基づいてTSから映像用TSパケット及び音声用TSパケットを抽出し、それぞれ第1及び第2の記憶領域AR1、AR2に書き込む(SQ5)。   The TS separation unit 210 extracts video TS packets and audio TS packets from the TS based on the set PID, and writes them to the first and second storage areas AR1 and AR2, respectively (SQ5).

その後、ホストCPU110によって起動された映像デコーダ230及び音声デコーダ240は、第1及び第2の記憶領域AR1、AR2から映像用TSパケット及び音声用TSパケットを順次読み出して(SQ6)、映像デコード処理及び音声デコード処理を行う。   Thereafter, the video decoder 230 and the audio decoder 240 activated by the host CPU 110 sequentially read the video TS packet and the audio TS packet from the first and second storage areas AR1 and AR2 (SQ6), and perform video decoding processing and Perform audio decoding.

2.3.1.2 放送受信終了処理
次に、図20に示す放送受信終了処理の動作例について説明する。ここでは、映像及び音声の再生を行う場合について説明する。
2.3.1.2 Broadcast Reception End Process Next, an operation example of the broadcast reception end process shown in FIG. 20 will be described. Here, a case where video and audio are reproduced will be described.

図23に、図20の放送受信終了処理の処理例のフロー図を示す。ホストCPU110は、RAM120又はROM130に格納されたプログラムを読み出し、該プログラムに対応した処理を実行することで図23に示す処理を行うことができるようになっている。   FIG. 23 shows a flowchart of a processing example of the broadcast reception end processing of FIG. The host CPU 110 can perform the process shown in FIG. 23 by reading a program stored in the RAM 120 or the ROM 130 and executing a process corresponding to the program.

まずホストCPU110は、画像処理IC200の映像デコーダ230、音声デコーダ240を停止させる(ステップS120)。これは、例えばホストCPU110から画像処理IC200に対し制御コマンドを発行し、画像処理IC200が該制御コマンドのデコード結果を用いて映像デコーダ230、音声デコーダ240を停止させることができる。   First, the host CPU 110 stops the video decoder 230 and the audio decoder 240 of the image processing IC 200 (step S120). For example, the host CPU 110 can issue a control command to the image processing IC 200, and the image processing IC 200 can stop the video decoder 230 and the audio decoder 240 using the decoding result of the control command.

その後、ホストCPU110は、同様にTS分離部210を停止させる(ステップS121)。そして、ホストCPU110は、チューナ940を停止させる(ステップS122)。   Thereafter, the host CPU 110 similarly stops the TS separation unit 210 (step S121). Then, the host CPU 110 stops the tuner 940 (step S122).

図24に、図18及び図19の画像処理IC200の放送受信終了処理における動作説明図を示す。図24において、図22と同一部分には同一符号を付し、適宜説明を省略する。   FIG. 24 is a diagram for explaining the operation in the broadcast reception end process of the image processing IC 200 shown in FIGS. In FIG. 24, the same parts as those in FIG. 22 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

まずホストCPU110が、表示制御部250の動作を停止させる制御を行い、表示ドライバ140への映像データの供給を停止させる(SQ10)。次に、ホストCPU110が、映像デコーダ230及び音声デコーダ240の動作を停止させ(SQ11)、その後TS分離部210、チューナ940の順に動作を停止させていく(SQ12、SQ13)。   First, the host CPU 110 performs control to stop the operation of the display control unit 250, and stops the supply of video data to the display driver 140 (SQ10). Next, the host CPU 110 stops the operations of the video decoder 230 and the audio decoder 240 (SQ11), and then stops the operations in the order of the TS separation unit 210 and the tuner 940 (SQ12, SQ13).

2.3.1.3 再生処理
次に、映像データの再生処理を行う映像デコーダ230の動作例について説明する。
2.3.1.3 Reproduction Process Next, an operation example of the video decoder 230 that performs the reproduction process of the video data will be described.

図25に、映像デコーダ230の動作例のフロー図を示す。   FIG. 25 shows a flowchart of an operation example of the video decoder 230.

映像デコーダ230は、ホストCPU110によって起動されると、例えばメモリ220の所定の記憶領域に格納されたプログラムを読み出し、該プログラムに対応した処理を実行することで図25に示す処理を行うことができるようになっている。   When the video decoder 230 is activated by the host CPU 110, for example, the video decoder 230 reads out a program stored in a predetermined storage area of the memory 220 and can execute the processing shown in FIG. 25 by executing processing corresponding to the program. It is like that.

まず、映像デコーダ230は、映像用TSバッファとして設けられた第1の記憶領域AR1がエンプティ状態か否かを判別する(ステップS140)。第1の記憶領域AR1から読み出されるべき映像用TSパケットがない場合、エンプティ状態となる。   First, the video decoder 230 determines whether or not the first storage area AR1 provided as the video TS buffer is in an empty state (step S140). When there is no video TS packet to be read from the first storage area AR1, the state becomes empty.

ステップS140において映像用TSバッファである第1の記憶領域AR1がエンプティ状態でないと判別されたとき(ステップS140:N)、映像デコーダ230は、更に映像用ESバッファとして設けられた第4の記憶領域AR4がフル状態か否かを判別する(ステップS141)。これ以上映像用ESデータを第4の記憶領域AR4に格納できない場合、フル状態となる。   When it is determined in step S140 that the first storage area AR1 that is the video TS buffer is not empty (step S140: N), the video decoder 230 further includes a fourth storage area provided as a video ES buffer. It is determined whether or not AR4 is full (step S141). When no more video ES data can be stored in the fourth storage area AR4, the full state is entered.

ステップS141において映像用ESバッファである第4の記憶領域AR4がフル状態でないと判別されたとき(ステップS141:N)、映像デコーダ230は、第1の記憶領域AR1から映像用TSパケットを読み出し、図21のステップS116においてホストCPU110により特定されたPID(指定PID)か否かを検出する(ステップS142)。   When it is determined in step S141 that the fourth storage area AR4 that is the video ES buffer is not full (step S141: N), the video decoder 230 reads the video TS packet from the first storage area AR1, It is detected whether or not the PID (designated PID) specified by the host CPU 110 in step S116 in FIG. 21 (step S142).

ステップS142において、映像用TSパケットのPIDが指定PIDであると検出されたとき(ステップS142:Y)、映像デコーダ230は、TSヘッダ、PESヘッダの解析を行い(ステップS143)、映像用ESデータを映像用ESバッファとして設けられた第4の記憶領域AR4に格納する(ステップS144)。   When it is detected in step S142 that the PID of the video TS packet is the designated PID (step S142: Y), the video decoder 230 analyzes the TS header and the PES header (step S143), and the video ES data Are stored in a fourth storage area AR4 provided as a video ES buffer (step S144).

その後、映像デコーダ230は、映像用TSバッファである第1の記憶領域AR1の読み出しアドレスを特定するための読み出しポインタを更新し(ステップS145)、ステップS140に戻る(リターン)。   Thereafter, the video decoder 230 updates the read pointer for specifying the read address of the first storage area AR1, which is a video TS buffer (step S145), and returns to step S140 (return).

なお、ステップS142において映像用TSパケットのPIDが指定PIDではないと検出されたとき(ステップS142:N)、ステップS145に進む。また、ステップS140において映像用TSバッファである第1の記憶領域AR1がエンプティ状態であると判別されたとき(ステップS140:Y)、又はステップS141において映像用ESバッファである第4の記憶領域AR4がフル状態であると判別されたとき(ステップS141:Y)、ステップS140に戻る(リターン)。   When it is detected in step S142 that the PID of the video TS packet is not the designated PID (step S142: N), the process proceeds to step S145. When it is determined in step S140 that the first storage area AR1 that is the video TS buffer is in an empty state (step S140: Y), or in step S141, the fourth storage area AR4 that is the video ES buffer. Is determined to be full (step S141: Y), the process returns to step S140 (return).

こうして第4の記憶領域AR4に格納された映像用ESデータは、映像デコーダ230により、上述したようなH.264/AVCの規格に従ったデコード処理が行われて、映像データとして第7の記憶領域AR7(図19参照)に書き込まれる。   The video ES data stored in the fourth storage area AR4 in this way is sent to the H.264 by the video decoder 230 as described above. A decoding process according to the H.264 / AVC standard is performed and written as video data in the seventh storage area AR7 (see FIG. 19).

図26に、図18及び図19の画像処理IC200の音声デコーダの動作説明図を示す。図26において、図22と同一部分には同一符号を付し、適宜説明を省略する。   FIG. 26 is a diagram for explaining the operation of the audio decoder of the image processing IC 200 shown in FIGS. In FIG. 26, the same parts as those in FIG. 22 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

なお図26において、第7の記憶領域AR7を第4の記憶領域AR4と共用化し、第8の記憶領域AR8を第5の記憶領域AR5と共用化している。また、PSI/SI、NIT、PMTは、第3の記憶領域AR3内の所定の記憶領域に格納されるものとする。   In FIG. 26, the seventh storage area AR7 is shared with the fourth storage area AR4, and the eighth storage area AR8 is shared with the fifth storage area AR5. In addition, PSI / SI, NIT, and PMT are stored in a predetermined storage area in the third storage area AR3.

まず図21に示すようにホストCPU110によりデコード処理対象の番組に対応するPIDがTS分離部210に設定される(SQ20)。チューナ940からTSが入力されたとき(SQ21)、TS分離部210は、チューナ940からのTSから映像用TSパケット、音声用TSパケット及びそれ以外のTSパケットをそれぞれ分離する(SQ22)。TS分離部210によって分離された映像用TSパケットは、第1の記憶領域AR1に格納される。TS分離部210によって分離された音声用TSパケットは、第2の記憶領域AR2に格納される。TS分離部210によって分離された映像用TSパケット及び音声用TSパケット以外のTSパケットは、PSI/SIとして第3の記憶領域AR3に格納される。この際、TS分離部210は、PSI/SIの中のNIT、PMTを抽出して第3の記憶領域AR3に格納する。   First, as shown in FIG. 21, the host CPU 110 sets the PID corresponding to the program to be decoded in the TS separator 210 (SQ20). When a TS is input from the tuner 940 (SQ21), the TS separation unit 210 separates the video TS packet, audio TS packet, and other TS packets from the TS from the tuner 940 (SQ22). The video TS packet separated by the TS separation unit 210 is stored in the first storage area AR1. The audio TS packet separated by the TS separation unit 210 is stored in the second storage area AR2. TS packets other than the video TS packet and audio TS packet separated by the TS separation unit 210 are stored in the third storage area AR3 as PSI / SI. At this time, the TS separation unit 210 extracts NIT and PMT in the PSI / SI and stores them in the third storage area AR3.

次にホストCPU110によって起動された映像デコーダ230は、第1の記憶領域AR1から映像用TSパケットを読み出し(SQ23)、映像用ESデータを生成し、該映像用ESデータを第4の記憶領域AR4に格納する(SQ24)。   Next, the video decoder 230 activated by the host CPU 110 reads the video TS packet from the first storage area AR1 (SQ23), generates video ES data, and stores the video ES data in the fourth storage area AR4. (SQ24).

その後、映像デコーダ230は、第4の記憶領域AR4から映像用ESデータを読み出して(SQ25)、H.264/AVCの規格に従ったデコード処理を行う。ここで、上述したように、本実施形態における並列動作が行われる。図26では、デコード処理後の映像データが表示制御部250に直接供給されている(SQ26)が、例えばデコード処理後の映像データを、一旦、メモリ220の所定の記憶領域に書き戻し、その後、音声データの出力タイミングと同期を取りながら表示制御部250に供給することが望ましい。   After that, the video decoder 230 reads the video ES data from the fourth storage area AR4 (SQ25). The decoding process according to the H.264 / AVC standard is performed. Here, as described above, the parallel operation in the present embodiment is performed. In FIG. 26, the video data after the decoding process is directly supplied to the display control unit 250 (SQ26). For example, the video data after the decoding process is once written back to a predetermined storage area of the memory 220, and then It is desirable to supply the display control unit 250 while synchronizing with the output timing of the audio data.

こうして表示制御部250に供給された映像データに基づいて、表示ドライバ140が表示パネルを駆動する(SQ27)。   Based on the video data thus supplied to the display control unit 250, the display driver 140 drives the display panel (SQ27).

なお音声データの再生処理を行う音声デコーダ240についても、同様に、音声用TSバッファとして設けられた第2の記憶領域AR2から音声用TSパケットを読み出し、TSヘッダ、PESヘッダの解析を行って、音声用ESデータを音声用ESバッファとして設けられた第5の記憶領域AR5に格納する。   Similarly, the audio decoder 240 that performs the audio data reproduction process reads the audio TS packet from the second storage area AR2 provided as the audio TS buffer, analyzes the TS header and the PES header, The audio ES data is stored in a fifth storage area AR5 provided as an audio ES buffer.

こうして第5の記憶領域AR5に格納された音声用ESデータは、音声デコーダ240により、MPEG−2AACの規格に従ったデコード処理が行われて、音声データとして第8の記憶領域AR8(図19参照)に書き込まれる。   The audio ES data stored in the fifth storage area AR5 in this way is decoded by the audio decoder 240 in accordance with the MPEG-2 AAC standard, and is used as audio data in the eighth storage area AR8 (see FIG. 19). ).

以上のような音声デコーダ240の動作は、映像デコーダ230の動作とは独立して行われる。   The operation of the audio decoder 240 as described above is performed independently of the operation of the video decoder 230.

なお、本発明は上述した実施の形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形実施が可能である。なお上記の実施形態又はその変形例では、地上デジタル放送に適用可能な例について説明したが、本発明は地上デジタル放送に適用可能なものに限定されるものではない。   The present invention is not limited to the above-described embodiment, and various modifications can be made within the scope of the gist of the present invention. In the above embodiment or its modification, an example applicable to terrestrial digital broadcasting has been described. However, the present invention is not limited to one applicable to terrestrial digital broadcasting.

なお、本実施形態におけるデコードシステム、デコード装置は、H.264/AVCに準拠したデコード処理に適用した場合について説明したが、これに限定されるものではなく、他の規格や、H.264/AVC規格を発展させた規格に準拠したデコード処理に適用できることは言うまでもない。   Note that the decoding system and decoding apparatus in this embodiment are H.264. Although the case where the present invention is applied to decoding processing conforming to H.264 / AVC has been described, the present invention is not limited to this, and other standards, It goes without saying that the present invention can be applied to decoding processing based on a standard developed from the H.264 / AVC standard.

また、本発明のうち従属請求項に係る発明においては、従属先の請求項の構成要件の一部を省略する構成とすることもできる。また、本発明の1の独立請求項に係る発明の要部を、他の独立請求項に従属させることもできる。   In the invention according to the dependent claims of the present invention, a part of the constituent features of the dependent claims can be omitted. Moreover, the principal part of the invention according to one independent claim of the present invention can be made dependent on another independent claim.

本実施形態におけるデコードシステムの構成例のブロック図。The block diagram of the structural example of the decoding system in this embodiment. 本実施形態におけるデコードシステムの処理の流れの概要のフロー図。The flowchart of the outline | summary of the flow of a process of the decoding system in this embodiment. ストリームデータから抽出されたMB単位のビットストリームの模式図。The schematic diagram of the bit stream of MB unit extracted from the stream data. 本実施形態の比較例におけるデコードシステムの動作例のタイミング図。The timing diagram of the operation example of the decoding system in the comparative example of this embodiment. 本実施形態におけるデコードシステムの動作例のタイミング図。The timing diagram of the example of operation | movement of the decoding system in this embodiment. デコード処理制御部において行われるヘッダ解析処理の一例のフロー図。The flowchart of an example of the header analysis process performed in a decoding process control part. CAVLC部の処理の一例のフロー図。The flowchart of an example of a process of a CAVLC part. 図8(A)、図8(B)、図8(C)はCAVLC演算の説明図。8A, 8B, and 8C are explanatory diagrams of CAVLC calculation. 図9(A)、図9(B)、図9(C)はゴロム符号の説明図。FIGS. 9A, 9B, and 9C are explanatory diagrams of Golomb codes. 逆量子化部の処理の説明図。Explanatory drawing of a process of an inverse quantization part. 並列動作制御部の処理例のフロー図。The flowchart of the example of a process of a parallel operation control part. 並列動作制御部の処理例のフロー図。The flowchart of the example of a process of a parallel operation control part. 地上デジタル放送のセグメントの概念の説明図。Explanatory drawing of the concept of the segment of digital terrestrial broadcasting. TSの説明図。Explanatory drawing of TS. PESパケット及びセクションの説明図。Explanatory drawing of a PES packet and a section. 本実施形態の比較例におけるマルチメディア処理CPUを含む携帯電話機の構成例のブロック図。The block diagram of the structural example of the mobile telephone containing the multimedia processing CPU in the comparative example of this embodiment. 本実施形態の情報再生装置を含む携帯電話機の構成例のブロック図。The block diagram of the structural example of the mobile telephone containing the information reproduction apparatus of this embodiment. 図17の画像処理ICの構成例のブロック図Block diagram of a configuration example of the image processing IC of FIG. 図18の画像処理ICの動作説明図。FIG. 19 is an operation explanatory diagram of the image processing IC in FIG. 18. ホストCPUによる再生処理の動作例のフロー図。The flowchart of the operation example of the reproduction | regeneration processing by host CPU. 図20の放送受信開始処理の処理例のフロー図。The flowchart of the process example of the broadcast reception start process of FIG. 図18及び図19の画像処理ICの放送受信開始処理における動作説明図。Operation | movement explanatory drawing in the broadcast reception start process of the image processing IC of FIG.18 and FIG.19. 図20の放送受信終了処理の処理例のフロー図。The flowchart of the process example of the broadcast reception end process of FIG. 図18及び図19の画像処理ICの放送受信終了処理における動作説明図。Operation | movement explanatory drawing in the broadcast reception end process of the image processing IC of FIG.18 and FIG.19. 映像デコーダの動作例のフロー図。The flowchart of the operation example of a video decoder. 図18及び図19の画像処理ICの音声デコーダの動作説明図。FIG. 20 is an operation explanatory diagram of the audio decoder of the image processing IC in FIGS. 18 and 19.

符号の説明Explanation of symbols

10 デコードシステム、 20 デコード処理制御部、 22 CAVLC部、
24 逆量子化部、 26 パラメータ解析部、 27 イントラ用パラメータ解析部、
28 インタ用パラメータ解析部、 30 並列動作制御部、 40 デコード装置、
50 シーケンサ部、 52 逆DCT演算部、 53 加算部、 54 動き補償部、
56 動き予測部、 57 重み付き予測部、 58 画面内予測部、
60 フィルタ部、 62 デブロックフィルタ、 70 出力画像バッファ、
EF1、EF2 動作完了フラグ、 SF1、SF2 起動フラグ
10 decoding system, 20 decoding processing control unit, 22 CAVLC unit,
24 Inverse quantization unit, 26 Parameter analysis unit, 27 Intra parameter analysis unit,
28 Inter parameter analysis unit, 30 parallel operation control unit, 40 decoding device,
50 sequencer section, 52 inverse DCT calculation section, 53 addition section, 54 motion compensation section,
56 motion prediction units, 57 weighted prediction units, 58 intra-screen prediction units,
60 filter section, 62 deblock filter, 70 output image buffer,
EF1, EF2 operation completion flag, SF1, SF2 start flag

Claims (16)

ストリームデータをデコードするためのデコード装置であって、
エントロピー符号化方式により符号化されたストリームデータを復号した後に逆量子化が行われたデータを逆離散コサイン変換し、該逆離散コサイン変換後のデータに対して動き予測又は動き補償を行った画像データを生成するシーケンサ部と、
所定のデータブロック単位で、前記動き予測又は動き補償を行った画像データのブロックノイズを低減させる処理を行うフィルタ部とを含み、
前記シーケンサ部及び前記フィルタ部の各部が、所与のデータブロック単位で並列動作するように起動されることを特徴とするデコード装置。
A decoding device for decoding stream data,
An image obtained by performing inverse discrete cosine transform on data that has been subjected to inverse quantization after decoding stream data encoded by the entropy encoding method, and performing motion prediction or motion compensation on the data after the inverse discrete cosine transform A sequencer section for generating data;
A filter unit that performs processing for reducing block noise of the image data subjected to the motion prediction or motion compensation in a predetermined data block unit,
A decoding apparatus, wherein each of the sequencer unit and the filter unit is activated so as to operate in parallel in a given data block unit.
請求項1において、
第1の期間に続く第2の期間において、
前記フィルタ部が、前記第1の期間において前記シーケンサ部によって生成された動き予測又は動き補償後の画像データのブロックノイズを低減させる処理を行うと共に、
前記シーケンサ部が、前記第1の期間において逆量子化されたデータに対して逆離散コサイン変換し該逆離散コサイン変換後のデータに対し、動き予測又は動き補償を行った画像データを生成することを特徴とするデコード装置。
In claim 1,
In the second period following the first period,
The filter unit performs a process of reducing block noise of image data after motion prediction or motion compensation generated by the sequencer unit in the first period,
The sequencer unit performs inverse discrete cosine transform on the data inversely quantized in the first period, and generates image data obtained by performing motion prediction or motion compensation on the data after the inverse discrete cosine transform. A decoding device characterized by the above.
請求項1又は2において、
前記シーケンサ部が、
該シーケンサ部の起動後、前記動き予測又は動き補償後の画像データが生成されたことを条件にセットされる第1の動作完了フラグを含み、
前記フィルタ部が、
該フィルタ部の起動後、前記動き予測又は動き補償後の画像データのブロックノイズを低減させる処理が完了したことを条件にセットされる第2の動作完了フラグを含み、
前記第1及び第2の動作完了フラグのセット状態の監視結果に基づいて、前記シーケンサ部及び前記フィルタ部の各部が起動されることを特徴とするデコード装置。
In claim 1 or 2,
The sequencer section is
A first operation completion flag set on condition that the motion prediction or motion compensated image data is generated after the sequencer unit is activated;
The filter unit is
A second operation completion flag that is set on the condition that processing for reducing block noise of the image data after motion prediction or motion compensation has been completed after activation of the filter unit;
6. A decoding apparatus according to claim 1, wherein each of the sequencer unit and the filter unit is activated based on a monitoring result of the set states of the first and second operation completion flags.
請求項3において、
第1〜第3のデータブロックを第1のデータブロックから順番に処理する場合に、
前記第3のデータブロックに対して逆量子化が終了し、且つ、前記第2のデータブロックに対して前記シーケンサ部からの前記第1の動作完了フラグがセット状態にあり、且つ前記第1のデータブロックに対して前記フィルタ部からの前記第2の動作完了フラグがセット状態にすることを条件に、前記シーケンサ部及び前記フィルタ部が起動されることを特徴とするデコード装置。
In claim 3,
When processing the first to third data blocks in order from the first data block,
Inverse quantization for the third data block is completed, and the first operation completion flag from the sequencer unit is set for the second data block, and the first data block The decoding apparatus, wherein the sequencer unit and the filter unit are activated on condition that the second operation completion flag from the filter unit is set to a data block.
請求項1乃至4のいずれかにおいて、
前記シーケンサ部及び前記フィルタ部を並列動作させるために起動する場合、
前記フィルタ部が起動されてから前記シーケンサ部が起動されることを特徴とするデコード装置。
In any one of Claims 1 thru | or 4,
When starting to operate the sequencer unit and the filter unit in parallel,
The decoding apparatus, wherein the sequencer unit is activated after the filter unit is activated.
請求項1乃至5のいずれかにおいて、
前記データブロックが、
前記ストリームデータに基づいて生成される画像のうち、水平方向の所与の画素数、垂直方向の所与のライン数を単位とする1マクロブロック分のデータであることを特徴とするデコード装置。
In any one of Claims 1 thru | or 5,
The data block is
The decoding apparatus according to claim 1, wherein the decoding apparatus is data for one macroblock having a given number of pixels in the horizontal direction and a given number of lines in the vertical direction as a unit among images generated based on the stream data.
請求項1乃至6のいずれかにおいて、
前記ストリームデータを復号した後に逆量子化を行うデコード処理制御部、前記シーケンサ部及び前記フィルタ部の各部が、所与のデータブロック単位で並列動作するように起動されることを特徴とするデコード装置。
In any one of Claims 1 thru | or 6.
A decoding apparatus comprising: a decoding processing control unit that performs inverse quantization after decoding the stream data, the sequencer unit, and the filter unit are activated to operate in parallel in units of a given data block .
請求項1乃至7のいずれかにおいて、
中央演算処理装置を含み、
前記ストリームデータを復号すると共に前記シーケンサ部及び前記フィルタ部を起動する機能を実現するためのプログラムを読み込み、該プログラムに従ってエントロピー符号化方式により符号化されたストリームデータを復号した後に逆量子化を行う処理を実行すると共に、前記シーケンサ部及び前記フィルタ部が所与のデータブロック単位で並列動作するように各部を起動することを特徴とするデコード装置。
In any one of Claims 1 thru | or 7,
Including a central processing unit,
A program for decoding the stream data and realizing the function of starting the sequencer unit and the filter unit is read, and the stream data encoded by the entropy encoding method is decoded according to the program, and then inverse quantization is performed. A decoding apparatus characterized by executing processing and activating each unit so that the sequencer unit and the filter unit operate in parallel in a given data block unit.
エントロピー符号化方式により符号化されたストリームデータを復号した後に逆量子化されたデータを逆離散コサイン変換し、該逆離散コサイン変換後のデータに対して動き予測又は動き補償を行った画像データを生成するシーケンサ部と、
所定のデータブロック単位で、前記動き予測又は動き補償後の画像データのブロックノイズを低減させる処理を行うフィルタ部とを含むデコード装置の制御方法であって、
前記ストリームデータに基づいて生成される画像のうち、水平方向の所与の画素数、垂直方向の所与のライン数を単位とする1マクロブロック分のデータを単位に、前記シーケンサ部及び前記フィルタ部が並列動作するように各部を起動することを特徴とするデコード装置の制御方法。
Image data obtained by performing inverse discrete cosine transform on the inversely quantized data after decoding the stream data encoded by the entropy encoding method and performing motion prediction or motion compensation on the data after the inverse discrete cosine transform A sequencer section to generate,
A control method of a decoding device including a filter unit that performs processing for reducing block noise of image data after motion prediction or motion compensation in units of predetermined data blocks,
Among the images generated based on the stream data, the sequencer unit and the filter in units of data of one macroblock having a given number of pixels in the horizontal direction and a given number of lines in the vertical direction as units. A control method of a decoding device, wherein each unit is activated so that the units operate in parallel.
請求項9において、
第1の期間に続く第2の期間において、
前記フィルタ部が、前記第1の期間において前記シーケンサ部によって生成された動き予測又は動き補償後の画像データのブロックノイズを低減させる処理を行うと共に、
前記シーケンサ部が、前記第1の期間において、逆量子化されたデータに対して逆離散コサイン変換し該逆離散コサイン変換後のデータに対して動き予測又は動き補償を行うように起動することを特徴とするデコード装置の制御方法。
In claim 9,
In the second period following the first period,
The filter unit performs a process of reducing block noise of image data after motion prediction or motion compensation generated by the sequencer unit in the first period,
Starting the sequencer unit to perform inverse discrete cosine transform on the inversely quantized data and to perform motion prediction or motion compensation on the data after the inverse discrete cosine transform in the first period. A control method for a decoding apparatus, which is characterized.
請求項9又は10において、
前記シーケンサ部及び前記フィルタ部を並列動作させる場合、
前記フィルタ部を起動してから前記シーケンサ部を起動させることを特徴とするデコード装置の制御方法。
In claim 9 or 10,
When operating the sequencer unit and the filter unit in parallel,
A control method for a decoding apparatus, wherein the sequencer unit is activated after the filter unit is activated.
請求項9乃至11のいずれかにおいて、
前記ストリームデータを復号した後に逆量子化を行うデコード処理制御部、前記シーケンサ部及び前記フィルタ部の各部が、所与のデータブロック単位で並列動作するように起動することを特徴とするデコード装置の制御方法。
In any of claims 9 to 11,
A decoding processing control unit that performs inverse quantization after decoding the stream data, the sequencer unit, and the filter unit are activated so as to operate in parallel in a given data block unit. Control method.
映像データ及び音声データの少なくとも1つを再生するための情報再生装置であって、
映像データを生成するための第1のTS(Transport Stream)パケット、音声データを生成するための第2のTSパケット、前記第1及び第2のTSパケット以外の第3のTSパケットを、トランスポートストリームから抽出する分離処理部と、
前記第1のTSパケットが格納される第1の記憶領域と、前記第2のTSパケットが格納される第2の記憶領域と、前記第3のTSパケットが格納される第3の記憶領域とを有するメモリと、
前記第1の記憶領域から読み出された前記第1のTSパケットに基づいて前記映像データを生成する映像デコード処理を行う請求項1乃至8いずれか記載のデコード装置と、
前記第2の記憶領域から読み出された前記第2のTSパケットに基づいて前記音声データを生成する音声デコード処理を行う音声デコーダとを含み、
前記デコード装置が、前記第1の記憶領域から前記第1のTSパケットを、前記音声デコーダとは独立して読み出し、該第1のTSパケットに基づいて前記映像デコード処理を行うと共に、
前記音声デコーダが、前記第2の記憶領域から前記第2のTSパケットを、前記映像デコーダとは独立して読み出し、該第2のTSパケットに基づいて前記音声デコード処理を行うことを特徴とする情報再生装置。
An information reproducing apparatus for reproducing at least one of video data and audio data,
Transport a first TS (Transport Stream) packet for generating video data, a second TS packet for generating audio data, and a third TS packet other than the first and second TS packets. A separation processing unit for extracting from the stream;
A first storage area for storing the first TS packet; a second storage area for storing the second TS packet; and a third storage area for storing the third TS packet; A memory having
The decoding device according to any one of claims 1 to 8, wherein a video decoding process for generating the video data based on the first TS packet read from the first storage area is performed.
An audio decoder that performs audio decoding processing for generating the audio data based on the second TS packet read from the second storage area;
The decoding device reads the first TS packet from the first storage area independently of the audio decoder, performs the video decoding process based on the first TS packet,
The audio decoder reads the second TS packet from the second storage area independently of the video decoder, and performs the audio decoding process based on the second TS packet. Information playback device.
請求項13において、
前記映像データ及び音声データのうち前記映像データのみを再生するときは、前記音声デコーダの動作を停止させ、
前記映像データ及び音声データのうち前記音声データのみを再生するときは、前記デコード装置の動作を停止させることを特徴とする情報再生装置。
In claim 13,
When reproducing only the video data of the video data and audio data, stop the operation of the audio decoder,
An information reproducing apparatus characterized by stopping the operation of the decoding apparatus when reproducing only the audio data of the video data and audio data.
請求項13又は14記載の情報再生装置と、
前記情報再生装置に対し、前記映像デコード処理及び前記音声デコード処理の少なくとも1つの処理開始を指示するホストとを含むことを特徴とする電子機器。
An information reproducing apparatus according to claim 13 or 14,
An electronic apparatus comprising: a host that instructs the information reproduction apparatus to start at least one of the video decoding process and the audio decoding process.
チューナと、
前記チューナからのトランスポートストリームが供給される請求項13又は14記載の情報再生装置と、
前記情報再生装置に対し、前記映像デコード処理及び前記音声デコード処理の少なくとも1つの処理開始を指示するホストとを含むことを特徴とする電子機器。
Tuner,
The information reproducing apparatus according to claim 13 or 14, wherein a transport stream from the tuner is supplied;
An electronic apparatus comprising: a host that instructs the information reproduction apparatus to start at least one of the video decoding process and the audio decoding process.
JP2006065341A 2006-03-10 2006-03-10 Decoding device, control method therefor, information reproducing device, and electronic device Pending JP2007243763A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006065341A JP2007243763A (en) 2006-03-10 2006-03-10 Decoding device, control method therefor, information reproducing device, and electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006065341A JP2007243763A (en) 2006-03-10 2006-03-10 Decoding device, control method therefor, information reproducing device, and electronic device

Publications (1)

Publication Number Publication Date
JP2007243763A true JP2007243763A (en) 2007-09-20

Family

ID=38588814

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006065341A Pending JP2007243763A (en) 2006-03-10 2006-03-10 Decoding device, control method therefor, information reproducing device, and electronic device

Country Status (1)

Country Link
JP (1) JP2007243763A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016036134A (en) * 2014-07-31 2016-03-17 富士通株式会社 Image processing method and apparatus
JP2024518139A (en) * 2022-04-01 2024-04-25 エーエーシーアコースティックテクノロジーズ(シンセン)カンパニーリミテッド Microphone amplifier circuit design method and microphone amplifier circuit

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016036134A (en) * 2014-07-31 2016-03-17 富士通株式会社 Image processing method and apparatus
JP2024518139A (en) * 2022-04-01 2024-04-25 エーエーシーアコースティックテクノロジーズ(シンセン)カンパニーリミテッド Microphone amplifier circuit design method and microphone amplifier circuit

Similar Documents

Publication Publication Date Title
US11632572B2 (en) Image coding method, image decoding method, image coding apparatus, image decoding apparatus, and image coding and decoding apparatus
US7162093B2 (en) Slice-layer in video codec
US20230370629A1 (en) Moving picture coding method, moving picture decoding method, moving picture coding apparatus, moving picture decoding apparatus, and moving picture coding and decoding apparatus
CN107087203B (en) Image decoding method and apparatus using the same
KR102215438B1 (en) Method and apparatus for encoding/decoding images
JP6711353B2 (en) Image processing apparatus and image processing method
JP2010110007A (en) Image encoding method and image decoding method, image encoding apparatus and image decoding apparatus, and image encoded bitstream and recording medium
US20080031357A1 (en) Decoding device, information reproducing apparatus and electronic apparatus
TW201424404A (en) Supplementary enhanced information message writing
JP2010516193A (en) CAVLC extensions for SVCCGS enhancement layer coding
CN103096054A (en) Video image filtering processing method and device thereof
KR20150013112A (en) Video-encoding method, video-decoding method, and apparatus implementing same
US20050169537A1 (en) System and method for image background removal in mobile multi-media communications
US20140321528A1 (en) Video encoding and/or decoding method and video encoding and/or decoding apparatus
JP2007243763A (en) Decoding device, control method therefor, information reproducing device, and electronic device
JP2007251543A (en) DISPLAY CONTROL DEVICE, ITS CONTROL METHOD, INFORMATION REPRODUCTION DEVICE, AND ELECTRONIC DEVICE
Chen et al. Architecture design of high performance embedded compression for high definition video coding
JP3623056B2 (en) Video compression device
JP2007243764A (en) Decoding device, control method therefor, information reproducing device, and electronic device
JP2007304797A (en) Data access circuit, decoding device, information reproducing device, and electronic device
JP2007282001A (en) Decoding device, decoding method, information reproducing device, and electronic device
JP2007166598A (en) Information recording apparatus and electronic apparatus
JP2007166597A (en) Information reproducing apparatus and electronic apparatus
JP2008022330A (en) Information reproducing apparatus and electronic apparatus
US20240297998A1 (en) Encoding video with extended long term reference picture retention