[go: up one dir, main page]

JP6312312B2 - コンテキストモデル生成装置、符号化装置、および復号装置 - Google Patents

コンテキストモデル生成装置、符号化装置、および復号装置 Download PDF

Info

Publication number
JP6312312B2
JP6312312B2 JP2014083729A JP2014083729A JP6312312B2 JP 6312312 B2 JP6312312 B2 JP 6312312B2 JP 2014083729 A JP2014083729 A JP 2014083729A JP 2014083729 A JP2014083729 A JP 2014083729A JP 6312312 B2 JP6312312 B2 JP 6312312B2
Authority
JP
Japan
Prior art keywords
model
context
data
unit
data value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014083729A
Other languages
English (en)
Other versions
JP2015204556A (ja
Inventor
俊枝 三須
俊枝 三須
境田 慎一
慎一 境田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2014083729A priority Critical patent/JP6312312B2/ja
Publication of JP2015204556A publication Critical patent/JP2015204556A/ja
Application granted granted Critical
Publication of JP6312312B2 publication Critical patent/JP6312312B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、コンテキストモデル生成装置、符号化装置、および復号装置に関する。
情報源符号化におけるエントロピー符号化には、符号化対象のシンボルの生起確率に応じて、数直線を区間分割する算術符号や、符号化対象のシンボルの生起確率に応じて可変長の符号語を割り当てるハフマン符号がある。このようなエントロピー符号化では、固定長の符号化方式よりも効率的な符号化が可能である。
また、符号化対象のデータ(以降、対象データという)とは別のデータ(以降、参照データという)から符号化対象のデータの出現傾向が予測できる場合がある。この場合には、符号化の際に、参照データに応じて対象データの生起確率モデルを適応的に変化させることで、固定的な生起確率モデルを用いる符号化方式よりも効率的な符号化が可能である。参照データに応じた対象データの出現の傾向は、コンテキストと呼ばれ、参照データから対象データの生起確率モデルを生成する仕組みは、コンテキストモデルと呼ばれる。
映像符号化方式であるAVC/H.264や、HEVC/H.265においては、CABAC(Context-based Adaptive Binary Arithmetic Coding)というコンテキスト適応型の算術符号化が採用されている。CABACでは、以前の入力シンボルの統計に基づきコンテキストが更新される。このCABACを実装する具体的な方法が、特許文献1で開示されている。
また、以前の入力シンボルの統計に基づくコンテキストの選択に加えて、現在の入力シンボルを用いたコンテキスト選択を行うことで符号化効率を向上させる方法も提案されている(例えば、特許文献2)。
特許第4886755号公報 特許第5221047号公報
しかしながら、上述の符号化方法においては、予め用意された複数のコンテキストモデルの中からコンテキストモデルを選択している。このため、対象データのコンテキストに近いコンテキストモデルがないことがあるという問題がある。
本発明は、このような事情に鑑みてなされたもので、対象データのコンテキストに、より近いコンテキストを提供することができるコンテキスト生成装置、符号化装置、および復号装置を提供する。
この発明は上述した課題を解決するためになされたもので、本発明の一態様は、参照データ値が与えられたときの、対象データの各データ値の生起確率を示すコンテキストモデルを生成するコンテキストモデル生成装置であって、前記対象データを代表する第1学習用データにおける各データ値の生起確率からなる第1モデルを算出する事前確率推定部と、前記対象データを代表する第2学習用データにおける、参照データ値が与えられたときの各データ値の生起確率からなる第2モデルを算出するコンテキスト推定部と、前記第1モデルと、参照データ値が与えられたときの各データ値の生起確率からなる候補モデルであって、予め決められた候補モデルと、前記第1モデルとの混合比を、前記第2モデルを参照して決定する混合比決定部と、前記第1モデルと前記候補モデルとを、前記混合比にて混合したコンテキストモデルを生成するコンテキストモデル生成部とを備えることを特徴とするコンテキストモデル生成装置である。
また、この発明の他の態様は、上述のコンテキストモデル生成装置であって、前記コンテキストモデル生成部は、前記第1モデルと前記候補モデルとを、前記混合比にて線形結合して前記コンテキストモデルを生成することを備えることを特徴とする。
また、この発明の他の態様は、上述のコンテキストモデル生成装置であって、前記候補モデルは、クロネッカーのデルタ関数であることを特徴とする。
また、この発明の他の態様は、対象データを代表する第1学習用データにおける各データ値の生起確率からなる第1モデルを算出する事前確率推定部と、前記対象データを代表する第2学習用データにおける、参照データ値が与えられたときの各データ値の生起確率からなる第2モデルを算出するコンテキスト推定部と、前記第1モデルと、参照データ値が与えられたときの各データ値の生起確率からなる候補モデルであって、予め決められた候補モデルと、前記第1モデルとの混合比を、前記第2モデルを参照して決定する混合比決定部と、前記第1モデルと前記候補モデルとを、前記混合比にて混合したコンテキストモデルを生成するコンテキストモデル生成部と、前記コンテキストモデル生成部が生成したコンテキストモデルを用いて、前記対象データを符号化することで、符号化データを生成する符号化部とを備えることを特徴とする符号化装置である。
また、この発明の他の態様は、上述の符号化装置であって、前記符号化部が生成した符号化データと、前記混合比決定部が決定した混合比を示す情報とを多重する多重部を備えることを特徴とする。
また、この発明の他の態様は、対象データを代表する第1学習用データにおける各データ値の生起確率からなる第1モデルを算出する事前確率推定部と、前記対象データを代表する第2学習用データにおける、参照データ値が与えられたときの各データ値の生起確率からなる第2モデルを算出するコンテキスト推定部と、前記第1モデルと、参照データ値が与えられたときの各データ値の生起確率からなる候補モデルであって、予め決められた候補モデルと、前記第1モデルとの混合比を、前記第2モデルを参照して決定する混合比決定部と、前記第1モデルと前記候補モデルとを、前記混合比にて混合したコンテキストモデルを生成するコンテキストモデル生成部と、前記対象データが符号化された符号化データを、前記コンテキストモデル生成部が生成したコンテキストモデルを用いて復号する復号部とを備えることを特徴とする復号装置である。
また、この発明の他の態様は、入力されたデータを、対象データを符号化した符号化データと、前記符号化データの符号化に用いた混合比を示す情報とに分離する分離部と、前記対象データを代表する第1学習用データにおける各データ値の生起確率からなる第1モデルを算出する事前確率推定部と、前記第1モデルと、参照データ値が与えられたときの各データ値の生起確率からなる候補モデルであって、予め決められた候補モデルとを、前記混合比にて混合したコンテキストモデルを生成するコンテキストモデル生成部と、前記対象データが符号化された符号化データを、前記コンテキストモデル生成部が生成したコンテキストモデルを用いて復号する復号部とを備えることを特徴とする復号装置である。
この発明によれば、対象データのコンテキストにより近いコンテキストを提供することができる。
この発明の第1の実施形態による情報源符号化復号システム10の構成を示す概略ブロック図である。 同実施形態における符号化装置100の構成を示す概略ブロック図である。 同実施形態における復号装置200の構成を示す概略ブロック図である。 この発明の第2の実施形態による符号化装置100aの構成を示す概略ブロック図である。 同実施形態における復号装置200aの構成を示す概略ブロック図である。 各実施形態の変形例における候補モデルQを定義するLUTの例(その1)を示すテーブルである。 各実施形態の変形例における候補モデルQを定義するLUTの例(その2)を示すテーブルである。
(第1の実施形態)
以下、図面を参照して、本発明の第1の実施形態について説明する。図1は、この発明の第1の実施形態による情報源符号化復号システム10の構成を示す概略ブロック図である。情報源符号化復号システム10は、符号化装置100と、復号装置200とを含む。符号化装置100は、対象データSを、エントロピー符号化して符号化データEを生成する。符号化装置100は、エントロピー符号化を行う際に、コンテキストモデルを生成し、使用する。復号装置200は、符号化データEを復号して、情報原Sを復元した復号データDを生成する。なお、符号化データEは、通信路などを介して、復号装置200に入力されてもよいし、DVD(Digital Versatile Disc)、HDD(Hard Disk Drive)などの記録媒体から、復号装置200に入力されてもよい。
図2は、符号化装置100の構成を示す概略ブロック図である。符号化装置100は、生起確率生成装置111、バッファ部101、エントロピー符号化部108を含む。生起確率生成装置111は、コンテキストモデル生成装置110、参照データ取得部106、生起確率モデル選択部107を含む。コンテキストモデル生成装置110は、事前確率推定部102、コンテキスト推定部103、混合係数決定部104、コンテキストモデル生成部105を含む。
バッファ部101は、対象データSを蓄積する。バッファ部101に蓄積された対象データSは、コンテキストモデルを生成するための学習用データとして利用される。事前確率推定部102は、バッファ部101に蓄積された対象データSから、対象データSにおけるXの事前確率を推定する。本実施形態において、Xは、対象データSを4ビットずつに区切ったものである。事前確率推定部102は、具体的には、バッファ部101に蓄積された対象データSを、学習用データL1として読出す。そして、事前確率推定部102は、読み出した学習用データL1を4ビットずつに区切った数列XにおけるXが採り得る値各々の生起確率を、事前確率Pr(X)として、式(1)を用いて算出する。
Figure 0006312312
コンテキスト推定部103は、バッファ部101に蓄積された対象データSを、学習用データL2として読出し、学習用データL2から、対象データSにおけるコンテキストを推定する。具体的には、コンテキスト推定部103は、学習用データL2として、バッファ部101からN個の値X(n∈{1、2、…、N})と、値Xの各々の参照データY(n∈{1、2、…、N})とを読み出す。コンテキスト推定部103は、読み出した学習用データL2におけるコンテキストPr(X|Y)を、式(2)を用いて算出する。
Figure 0006312312
なお、本実施形態では、Xは、それぞれ、対象データSを4ビットずつ区切ったものである。Yは、それぞれ、対象データSにおけるXの直前の4ビットである。例えば、Yは、Xの直前の4ビットである。しかし、Xのビット長は、4ビットより短くても良いし、長くてもよい。また、Yのビット長は、4ビットより短くても良いし、長くてもよいし、Xと異なっていても良い。
また、Yは、例えば、Xの10ビット前など、Xの直前でなくてもよいし、さらには、Xが対象データS中で何番目かなどの情報であってもよい。例えば、対象データSが、画像に関するラスタスキャン順に並んだパラメータ列であれば、YがXの直前であれば、YはXが対象とする部分の左隣の部分に関するパラメータである。しかし、YをXのラスタスキャンにおける1ライン分前とすると、YはXが対象とする部分の上隣の部分に関するパラメータとなる。
混合係数決定部104は、参照データ値Yが与えられたときの各データ値Xの生起確率からなる候補モデルQ(X|Y)を、予め記憶している。混合係数決定部104は、この候補モデルQ(X|Y)と、事前確率推定部102が推定した事前確率Pr(X)との混合係数を決定する。このとき、混合係数決定部104は、混合係数aを用いたモデル同士の線形結合、すなわち式(3)で表される混合を行った結果のモデルP(X|Y)が、コンテキスト推定部103が推定したコンテキストPr(X|Y)にできるだけ近くなるように混合係数aの値を決定する。
Figure 0006312312
具体的には、混合係数決定部104は、式(4)をaにて偏微分したときに0となるaハットを、式(5)により算出し、混合係数とする。
Figure 0006312312
Figure 0006312312
なお、式(4)、(5)において、シグマに付された(X,Y)は、学習用データL2に含まれるX、Yの組合せのみについて、総和を取ることを示す。このようにすることで、学習用データL2におけるコンテキストPr(X|Y)を、全てのX,Yの組合せについて求めておかくなくてもよくなる。
本実施形態では、Q(X|Y)として、式(6)に示す、X、Yを引数とするクロネッカーのデルタδX,Yを用いる。
Figure 0006312312
コンテキストモデル生成部105は、事前確率推定部102が推定した事前確率Pr(X)と、候補モデルQ(X|Y)とを、混合係数決定部104が決定した混合係数aハットを用いて、式(7)のように混合したコンテキストモデルP(X|Y)を生成する。
Figure 0006312312
このように、コンテキストモデルP(X|Y)を、事前確率Pr(X)と、候補モデルQ(X|Y)とを混合したものとするので、学習用データの量が少ないときに、確率分布が極端に偏ってしまうようなコンテキストモデルとなってしまうのを避けつつ、対象データのコンテキストに、より近いコンテキストを提供することができる。
生起確率モデル選択部107は、コンテキストモデルP(X|Y)のうち、参照データYが参照データ取得部106から入力された参照データYinであるときの生起確率モデルP(X|Yin)を選択し、エントロピー符号化部108に入力する。
参照データ取得部106は、対象データSを4ビット分遅延させものを、参照データYinとして生起確率モデル選択部107に入力する。エントロピー符号化部108は、対象データSを4ビットずつ区切った値Xinを、生起確率モデル選択部107から入力された生起確率モデルP(X|Yin)を用いて、エントロピー符号化する。エントロピー符号化部18は、エントロピー符号化した結果を、符号化データEとして出力する。なお、エントロピー符号化には、算術符号、ハフマン符号など、生起確率を用いるものであれば、どのようなものを使ってもよい。なお、参照データ取得部106にて対象データSを4ビット分遅延させているため、Xinをエントロピー符号化する際の生起確率モデルP(X|Yin)のYinは、対象データSにおけるXinの直前の4ビットである。
図3は、復号装置200の構成を示す概略ブロック図である。図3において、図2の各部に対応する部分には、同一の符号を付し、説明を省略する。復号装置200は、エントロピー復号部208、生起確率生成装置211を含む。生起確率生成装置211は、生起確率モデル選択部107、コンテキストモデル生成装置110を含む。
エントロピー復号部208は、符号化データEを復号することで、復号データDを生成する。エントロピー復号部208は、復号する際に、生起確率モデル選択部107が選択した生起確率モデルP(X|Yin)を用いる。復号装置200において、参照データYinは、エントロピー復号部208が、直前に復号した復号データDの4ビットである。
このように、コンテキストモデル生成装置110は、学習用データにおける各データ値の生起確率と、予め決められた候補モデルとの混合比を、学習用データにおける、参照データ値が与えられたときの各データ値の生起確率を参照して決定する。
これにより、対象データのコンテキストに、より近いコンテキストを提供することができる。
(第2の実施形態)
第1の実施形態では、符号化装置100と復号装置200との間では、符号化データEを出力したが、本実施形態における符号化装置100aと復号装置200aとの間では、符号化データEに、混合係数aハットを多重して伝送する。図4は、符号化装置100aの構成を示す概略ブロック図である。同図において、図2の各部に対応する部分には、同一の符号を付し、説明を省略する。符号化装置100aは、図2の符号化装置100とほぼ同様の構成であるが、多重部109をさらに有する点が異なる。多重部109は、エントロピー符号化部108が生成した符号化データEと、混合係数決定部104が決定した混合係数aハットとを多重して出力する。
図5は、復号装置200aの構成を示す概略ブロック図である。図5において、図3の各部に対応する部分には同一の符号を付し、説明を省略する。復号装置200aは、バッファ部101、エントロピー復号部208、分離部209、生起確率生成装置211aを含む。生起確率生成装置211aは、生起確率モデル選択部107、コンテキストモデル生成装置110aを含む。コンテキストモデル生成装置110aは、事前確率推定部102、コンテキストモデル生成105を含む。
分離部209は、符号化装置100aから伝送されたデータを、符号化データEと、混合係数aハットとに分離する。分離部209は、分離した符号化データEを、エントロピー復号部208に入力する。分離部209は、混合係数aハットを、コンテキストモデル生成部105に入力する。
なお、本実施形態では、混合係数aハットを復号装置200aに伝送している。このため、復号装置200aは、復号装置200ようにして、復号した対象データから混合係数aを求める必要がなくなる。したがって、符号化装置100aのコンテキスト推定部103は、対象データを符号化する前に、対象データ全体を学習用データL2として、混合係数aを求めるなど、学習用データL2として、符号化未済みの対象データを含むようにしてもよい。
このように、多重部109は、符号化データEと、混合係数aハットとを多重する。また、分離部209は、入力されたデータを、符号化データEと、混合係数aハットとに分離する。
これにより、復号装置200aは、コンテキストモデルを生成する際に、対象データのコンテキストの推定と、混合係数の算出とを行わずに、符号化データを復号することができる。
なお、上述の各実施形態では、バッファ部101に蓄積された対象データSを学習用データとして利用したが、符号化装置100、100aは、学習用データを、対象データSとは、別に取得してもよい。
また、上述の各実施形態では、候補モデルQ(X|Y)としてクロネッカーのデルタ関数を用いたが、候補モデルQ(X|Y)をLUTなどで定義し、コンテキストモデル生成装置110は、そのLUTを記憶していてもよい。
図6、図7は、候補モデルQを定義するLUTの例を示すテーブルである。図6に示す例では、Xの値と、Yの値が一致するときは、確率が「0.7」であり、一致しないときは、「0.1」となっている。図7に示す例では、Xの値がYの値よりも1大きいときは、確率が「0.7」であり、その他のときは、「0.1」となっている。ただし、Yが「3」のときは、Xが「0」のときの確率が「0.7」であり、Xがその他の値であるときの確率が「0.1」である。
また、上述の各実施形態では、コンテキストモデル生成部105は、コンテキストモデルを生成する際に、Pr(X)と、Q(X|Y)とを線形結合しているが、(1−a−b)Pr(X)+a×Q(X|Y)+b×Q(X|Y)というように複数の候補モデルを線形結合するようにしてもよい。この場合、式(4)をaについて偏微分したものが0になる式と、式(4)をbについて偏微分したものが0になる式とを、a、bについて解いた式を用いれば、混合係数決定104は、a、bを決定することができる。同様にして、線形結合する候補モデルは、3つ以上であってもよい。
また、候補モデルを複数用いる場合は、候補モデルによって、YとXとの関係が異なっていてもよい。例えば、1つ目の候補モデルでは、YはXの直前の4ビットであり、2つ目の候補モデルでは、YはXの40ビット前の4ビットであってもよい。さらに、候補モデルによって、Yのビット長が異なっていてもよい。
また、複数の候補モデルを用意しておき、それらの中から一つを選択して用いるようにしてもよい。例えば、混合係数決定104が、複数の候補モデルについて式(4)の値を算出し、その値が最も小さくなった候補モデルを選択するようにしてもよい。
また、図2における符号化装置100、コンテキストモデル生成装置110、生起確率生成装置111、図3における復号装置200、図4における符号化装置100a、図5における復号装置200a、コンテキストモデル生成装置110a、生起確率生成装置211aの機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各装置を実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
また、上述した図2における符号化装置100、コンテキストモデル生成装置110、生起確率生成装置111、図3における復号装置200、図4における符号化装置100a、図5における復号装置200a、コンテキストモデル生成装置110a、生起確率生成装置211aの各機能ブロックは個別にチップ化してもよいし、一部、または全部を集積してチップ化してもよい。また、集積回路化の手法はLSIに限らず、専用回路、または汎用プロセッサで実現しても良い。ハイブリッド、モノリシックのいずれでも良い。一部は、ハードウェアにより、一部はソフトウェアにより機能を実現させても良い。
また、半導体技術の進歩により、LSIに代替する集積回路化等の技術が出現した場合、当該技術による集積回路を用いることも可能である。
以上、この発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計変更等も含まれる。
10…情報源符号化復号システム
100、100a…符号化装置
101…バッファ部
102…事前確率推定部
103…コンテキスト推定部
104…混合係数決定部
105…コンテキストモデル生成部
106…参照データ取得部
107…生起確率モデル選択部
108…エントロピー符号化部
109…多重部
110、110a…コンテキストモデル生成装置
111…生起確率生成装置
200、200a…復号装置
208…エントロピー復号部
209…分離部
211、211a…生起確率生成装置

Claims (7)

  1. 参照データ値が与えられたときの、対象データの各データ値の生起確率を示すコンテキストモデルを生成するコンテキストモデル生成装置であって、
    前記対象データを代表する第1学習用データにおける各データ値の生起確率からなる第1モデルを算出する事前確率推定部と、
    前記対象データを代表する第2学習用データにおける、参照データ値が与えられたときの各データ値の生起確率からなる第2モデルを算出するコンテキスト推定部と、
    前記第1モデルと、参照データ値が与えられたときの各データ値の生起確率からなる候補モデルであって、予め決められた候補モデルと、前記第1モデルとの混合比を、前記第2モデルを参照して決定する混合比決定部と、
    前記第1モデルと前記候補モデルとを、前記混合比にて混合したコンテキストモデルを生成するコンテキストモデル生成部と
    を備えることを特徴とするコンテキストモデル生成装置。
  2. 前記コンテキストモデル生成部は、前記第1モデルと前記候補モデルとを、前記混合比にて線形結合して前記コンテキストモデルを生成すること
    を備えることを特徴とする請求項1に記載のコンテキストモデル生成装置。
  3. 前記候補モデルは、クロネッカーのデルタ関数であることを特徴とする請求項1に記載のコンテキストモデル生成装置。
  4. 対象データを代表する第1学習用データにおける各データ値の生起確率からなる第1モデルを算出する事前確率推定部と、
    前記対象データを代表する第2学習用データにおける、参照データ値が与えられたときの各データ値の生起確率からなる第2モデルを算出するコンテキスト推定部と、
    前記第1モデルと、参照データ値が与えられたときの各データ値の生起確率からなる候補モデルであって、予め決められた候補モデルと、前記第1モデルとの混合比を、前記第2モデルを参照して決定する混合比決定部と、
    前記第1モデルと前記候補モデルとを、前記混合比にて混合したコンテキストモデルを生成するコンテキストモデル生成部と、
    前記コンテキストモデル生成部が生成したコンテキストモデルを用いて、前記対象データを符号化することで、符号化データを生成する符号化部と
    を備えることを特徴とする符号化装置。
  5. 前記符号化部が生成した符号化データと、前記混合比決定部が決定した混合比を示す情報とを多重する多重部を備えることを特徴とする請求項4に記載の符号化装置。
  6. 対象データを代表する第1学習用データにおける各データ値の生起確率からなる第1モデルを算出する事前確率推定部と、
    前記対象データを代表する第2学習用データにおける、参照データ値が与えられたときの各データ値の生起確率からなる第2モデルを算出するコンテキスト推定部と、
    前記第1モデルと、参照データ値が与えられたときの各データ値の生起確率からなる候補モデルであって、予め決められた候補モデルと、前記第1モデルとの混合比を、前記第2モデルを参照して決定する混合比決定部と、
    前記第1モデルと前記候補モデルとを、前記混合比にて混合したコンテキストモデルを生成するコンテキストモデル生成部と、
    前記対象データが符号化された符号化データを、前記コンテキストモデル生成部が生成したコンテキストモデルを用いて復号する復号部と
    を備えることを特徴とする復号装置。
  7. 入力されたデータを、対象データを符号化した符号化データと、前記符号化データの符号化に用いた混合比を示す情報とに分離する分離部と、
    前記対象データを代表する第1学習用データにおける各データ値の生起確率からなる第1モデルを算出する事前確率推定部と、
    前記第1モデルと、参照データ値が与えられたときの各データ値の生起確率からなる候補モデルであって、予め決められた候補モデルとを、前記混合比にて混合したコンテキストモデルを生成するコンテキストモデル生成部と、
    前記対象データが符号化された符号化データを、前記コンテキストモデル生成部が生成したコンテキストモデルを用いて復号する復号部と
    を備えることを特徴とする復号装置。
JP2014083729A 2014-04-15 2014-04-15 コンテキストモデル生成装置、符号化装置、および復号装置 Active JP6312312B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014083729A JP6312312B2 (ja) 2014-04-15 2014-04-15 コンテキストモデル生成装置、符号化装置、および復号装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014083729A JP6312312B2 (ja) 2014-04-15 2014-04-15 コンテキストモデル生成装置、符号化装置、および復号装置

Publications (2)

Publication Number Publication Date
JP2015204556A JP2015204556A (ja) 2015-11-16
JP6312312B2 true JP6312312B2 (ja) 2018-04-18

Family

ID=54597770

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014083729A Active JP6312312B2 (ja) 2014-04-15 2014-04-15 コンテキストモデル生成装置、符号化装置、および復号装置

Country Status (1)

Country Link
JP (1) JP6312312B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10735736B2 (en) * 2017-08-29 2020-08-04 Google Llc Selective mixing for entropy coding in video compression
WO2024171775A1 (ja) * 2023-02-15 2024-08-22 ソニーグループ株式会社 画像符号化方法、画像符号化装置、画像復号方法、及び画像復号装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0996926B1 (en) * 1997-07-11 2010-02-03 Sharp Kabushiki Kaisha Apparatus and method for multiscale zerotree entropy encoding
CN104159111B (zh) * 2009-05-29 2018-11-06 三菱电机株式会社 图像解码装置以及图像解码方法
JP5592246B2 (ja) * 2010-12-21 2014-09-17 日本電信電話株式会社 コンテクスト適応エントロピー符号化方法,コンテクスト適応エントロピー復号方法,コンテクスト適応エントロピー符号化装置,コンテクスト適応エントロピー復号装置およびそれらのプログラム
JP2013168913A (ja) * 2012-01-19 2013-08-29 Mitsubishi Electric Corp 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法

Also Published As

Publication number Publication date
JP2015204556A (ja) 2015-11-16

Similar Documents

Publication Publication Date Title
JP6661699B2 (ja) ビデオ符号化における構文の2値化とコンテキスト適応型符号化の方法と装置
JP6706357B2 (ja) 少なくとも1つの第2の画像成分の参照ブロックに対して第1の画像成分の現在ブロックを符号化するための方法、符号化装置および対応するコンピュータプログラム
KR102486026B1 (ko) 병렬 엔트로피 부호화/복호화 방법 및 장치
US9819358B2 (en) Entropy encoding based on observed frequency
JP2014197883A (ja) 映像復号化方法
JP2022520408A (ja) ビデオ復号のための方法、装置、およびコンピュータプログラム
JP2016036162A (ja) 参照ユニット決定方法及び装置
CN113228667B (zh) 视频编解码的方法、装置及存储介质
CN117319658A (zh) 视频编码方法、解码方法、电子设备及存储介质
JP6312312B2 (ja) コンテキストモデル生成装置、符号化装置、および復号装置
KR101751671B1 (ko) 영상 양자화 파라미터 복호 방법
CN107105249B (zh) 图像量化参数解码方法
Jalali et al. A universal scheme for Wyner–Ziv coding of discrete sources
JP5878792B2 (ja) 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、およびプログラム
JP6280266B2 (ja) 復号装置、及び復号方法
JP6495834B2 (ja) 映像符号化方法、映像符号化装置及び映像符号化プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180319

R150 Certificate of patent or registration of utility model

Ref document number: 6312312

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150