JP2020150441A - Image padding method, image padding device, and program - Google Patents
Image padding method, image padding device, and program Download PDFInfo
- Publication number
- JP2020150441A JP2020150441A JP2019047129A JP2019047129A JP2020150441A JP 2020150441 A JP2020150441 A JP 2020150441A JP 2019047129 A JP2019047129 A JP 2019047129A JP 2019047129 A JP2019047129 A JP 2019047129A JP 2020150441 A JP2020150441 A JP 2020150441A
- Authority
- JP
- Japan
- Prior art keywords
- image
- padding
- unit
- block
- image block
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
【課題】任意形状画像に対し、符号量の増大を抑えつつ、より高速にパディング処理を行うことで、符号化対象としての矩形画像を生成する。
【解決手段】パディングにより任意形状画像を矩形画像に変換し、矩形画像を示す画像信号を出力する画像パディング装置は、任意形状画像が分割された画像ブロックごとに、任意形状画像の形状を示す形状情報と、符号化対象の画像ブロックの位置及び大きさ示す符号化対象ブロック情報と、に基づいてパディングを行う必要があるか否かを判定する要否判定部205と、画像ブロック内に存在する画素の画素位置を示す疎行列と、画像ブロックに対して疎行列を乗じて得られた領域内画素情報と、画面内予測値と、に基づいてパディング済み画像ブロックを導出する取得部207と、パディングを行う必要がないと判定された場合、画像ブロックを出力し、そうでない場合、パディング済み画像ブロックを出力する出力部209とを有する。
【選択図】図5PROBLEM TO BE SOLVED: To generate a rectangular image as a coding target by performing a padding process on an arbitrary shape image at a higher speed while suppressing an increase in a code amount.
An image padding device that converts an arbitrary shape image into a rectangular image by padding and outputs an image signal indicating the rectangular image is a shape that indicates the shape of the arbitrary shape image for each image block in which the arbitrary shape image is divided. It exists in the image block and the necessity determination unit 205 that determines whether or not padding needs to be performed based on the information and the coded target block information indicating the position and size of the image block to be encoded. An acquisition unit 207 that derives a padded image block based on a sparse matrix indicating the pixel position of the pixel, an in-region pixel information obtained by multiplying the image block by the sparse matrix, and an in-screen predicted value. If it is determined that it is not necessary to perform padding, it has an output unit 209 that outputs an image block, and if not, outputs a padded image block.
[Selection diagram] Fig. 5
Description
本発明は、画像パディング方法、画像パディング装置、及びプログラムに関する。 The present invention relates to an image padding method, an image padding device, and a program.
従来、長方形ではない任意の形状の画像(以下、「任意形状画像」という。)を符号化する方法として、ISO/IEC(国際標準化機構及び国際電気標準会議)によって規定された映像符号化国際規格であるMPEG−4(ISO/IEC 14496-2)のSA−DCT(Shape-Adaptive Discrete Cosine Transform:形状適応離散コサイン変換)を用いた符号化方法がある。また、例えば図7に示すような任意形状画像を取り囲むように画素を外挿すること(以下、「パディング」という。)によって、当該任意形状画像を例えば図8に示すような長方形の画像(以下、「矩形画像」という。)に変換して、矩形画像を符号化することができる一般的な符号化方法を用いて符号化を行う方法がある。この方法によれば、任意形状画像を直接符号化することができないJPEG(ISO/IEC JTC 1/SC 29/WG 1、Joint Photographic Experts Group)方式等の符号化方法を用いることができる。 Conventionally, as a method of encoding an image of an arbitrary shape that is not a rectangle (hereinafter referred to as "arbitrary shape image"), an international video coding standard defined by ISO / IEC (International Organization for Standardization and International Electrotechnical Commission). There is a coding method using SA-DCT (Shape-Adaptive Discrete Cosine Transform) of MPEG-4 (ISO / IEC 14496-2). Further, for example, by extrapolating the pixels so as to surround the arbitrary shape image as shown in FIG. 7 (hereinafter, referred to as “padding”), the arbitrary shape image can be made into a rectangular image as shown in FIG. , "Rectangular image"), and there is a method of encoding using a general coding method capable of encoding a rectangular image. According to this method, a coding method such as a JPEG (ISO / IEC JTC 1 / SC 29/WG 1, Joint Photographic Experts Group) method, which cannot directly encode an arbitrary shape image, can be used.
最も単純なパディング方法としては、例えば符号化対象の画像が8ビットのモノクロ画像である場合、所定の画素値(例えば128)の画素によってパディングを行うことが考えられる。しかしながら、この場合、任意形状画像の境界領域(例えば、図9に示す、領域内部と外挿領域(パディング対象領域)との境の領域)において、領域内部の画素の画素値と外挿領域の画素の画素値との間に大きなギャップが生じることがある。ことにより、符号化効率(データ圧縮率)が低下する場合がある。このような符号化効率の低下を改善するため、上述したMPEG−4では、LPE(Low Pass Extrapolation)と呼ばれるパディング方法を用いることができる。LPEは、領域内部の画素の画素値を用いて、外挿領域を一種のLPF(Low Pass filter;低域通過濾波器)によってパディングする方法である。 As the simplest padding method, for example, when the image to be encoded is an 8-bit monochrome image, it is conceivable to perform padding with pixels having a predetermined pixel value (for example, 128). However, in this case, in the boundary region of the arbitrary shape image (for example, the region of the boundary between the region inside and the extrapolation region (padding target region) shown in FIG. 9), the pixel values of the pixels inside the region and the extrapolation region A large gap may occur between the pixel value and the pixel value. As a result, the coding efficiency (data compression rate) may decrease. In order to improve such a decrease in coding efficiency, a padding method called LPE (Low Pass Extrapolation) can be used in the above-mentioned MPEG-4. LPE is a method of padding an extrapolated region with a kind of LPF (Low Pass filter) using the pixel values of the pixels inside the region.
その他のパディング方法として、非特許文献1及び非特許文献2に記載の方法がある。これらのパディング方法は、非可逆画像符号化において大抵用いられる変換処理の後の高周波係数が0となるようなパディング信号を生成する方法である。 As another padding method, there are the methods described in Non-Patent Document 1 and Non-Patent Document 2. These padding methods are methods that are often used in lossy image coding to generate a padding signal such that the high frequency coefficient after the conversion process becomes 0.
非特許文献1及び非特許文献2に記載のパディング方法では、パディングを行うための計算量は、符号化対象の画像ブロックの画素数をn個とした場合、最大で、nC(n/2)に比例する計算量になる。例えば、JPEG等において用いられる8画素×8画素の画像ブロック(すなわち、n=64)の場合、パディングを行うための計算量は、最大で、64C32≒1.83×1018であり、膨大な計算量になる。さらに、例えば、H.265/HEVCで用いられる符号化単位である32画素×32画素(すなわち、n=1024)の画像ブロックでは、計算量は最大で、4.48×10306となる。そのため、符号化対象の画像ブロックが、例えばH.264/AVCで用られる最小の符号化単位である4画素×4画素(すなわち、n=16)程度の大きさでなければ、実用的な時間内でのパディング処理が困難である(なお、この場合の計算量は最大12,870となる)。このように、従来のパディング方法では、符号化対象の画像ブロックの画素数が多くなると、符号化効率が低下する、あるいは実用的な時間内でのパディング処理が困難になるという課題があった。 In the padding method described in Non-Patent Document 1 and Non-Patent Document 2, the amount of calculation for padding is nC (n / 2) at the maximum when the number of pixels of the image block to be encoded is n. The amount of calculation is proportional to. For example, in the case of an image block of 8 pixels × 8 pixels used in JPEG and the like (i.e., n = 64), the amount of calculation for performing padding up to a 64C32 ≒ 1.83 × 10 18, enormous It becomes the amount of calculation. Further, for example, H. In an image block of 32 pixels × 32 pixels (that is, n = 1024), which is a coding unit used in 265 / HEVC, the maximum amount of calculation is 4.48 × 10 306 . Therefore, the image block to be encoded is, for example, H.I. Unless the size is about 4 pixels × 4 pixels (that is, n = 16), which is the smallest coding unit used in 264 / AVC, padding processing within a practical time is difficult (note that this). The maximum amount of calculation in this case is 12,870). As described above, the conventional padding method has a problem that when the number of pixels of the image block to be encoded increases, the coding efficiency decreases or the padding process within a practical time becomes difficult.
本発明は、上記のような技術的背景に鑑みてなされたものであり、任意形状画像に対し、符号量の増大を抑えつつ、より高速にパディング処理を行うことができる技術を提供することを目的とする。 The present invention has been made in view of the above technical background, and provides a technique capable of performing padding processing on an arbitrary shape image at a higher speed while suppressing an increase in the code amount. The purpose.
本発明の一態様は、パディングにより任意形状画像を矩形画像に変換し、前記矩形画像を示す画像信号を画像符号化装置へ出力する画像パディング方法であって、前記任意形状画像が分割された画像ブロックごとに、前記任意形状画像の形状を示す形状情報と、前記画像符号化装置から出力された符号化対象の前記画像ブロックの位置及び大きさ示す符号化対象ブロック情報と、に基づいてパディングを行う必要があるか否かを判定するパディング要否判定ステップと、記画像ブロック内に存在する画素の画素位置を示す疎行列と、前記画像ブロックに対して疎行列を乗じて得られた領域内画素情報と、前記画像符号化装置から出力された画面内予測値と、に基づいてパディング済み画像ブロックを導出する求解ステップと、前記パディングを行う必要がないと判定された場合、前記画像ブロックを示す画像信号を前記画像符号化装置へ出力し、前記パディングを行う必要があると判定された場合、前記パディング済み画像ブロックを示す画像信号を前記画像符号化装置へ出力する画像信号出力ステップと、を有する画像パディング方法である。 One aspect of the present invention is an image padding method in which an arbitrary shape image is converted into a rectangular image by padding and an image signal indicating the rectangular image is output to an image coding device, wherein the arbitrary shape image is divided. For each block, padding is performed based on the shape information indicating the shape of the arbitrary shape image and the coded target block information indicating the position and size of the coded image block output from the image coding device. Within the region obtained by multiplying the image block by the padding necessity determination step for determining whether or not it is necessary, the sparse matrix indicating the pixel positions of the pixels existing in the image block, and the sparse matrix for the image block. A solution step for deriving a padded image block based on the pixel information and the in-screen predicted value output from the image encoding device, and when it is determined that the padding is not necessary, the image block is used. When it is determined that it is necessary to output the indicated image signal to the image coding device and perform the padding, an image signal output step of outputting the image signal indicating the padded image block to the image coding device and It is an image padding method having.
また、本発明の一態様は、パディングにより任意形状画像を矩形画像に変換し、当該矩形画像を示す画像信号を画像符号化装置へ出力する画像パディング装置であって、前記任意形状画像が分割された画像ブロックごとに、前記任意形状画像の形状を示す形状情報と、前記画像符号化装置から出力された符号化対象の前記画像ブロックの位置及び大きさ示す符号化対象ブロック情報と、に基づいてパディングを行う必要があるか否かを判定するパディング要否判定部と、前記画像ブロック内に存在する画素の画素位置を示す疎行列と、前記画像ブロックに対して疎行列を乗じて得られた領域内画素情報と、前記画像符号化装置から出力された画面内予測値と、に基づいてパディング済み画像ブロックを導出する求解部と、前記画像信号を前記画像符号化装置へ出力する画像信号出力部と、を備え、前記画像信号出力部は、前記パディングを行う必要がないと判定された場合、前記画像ブロックを示す画像信号を出力し、前記パディングを行う必要があると判定された場合、前記パディング済み画像ブロックを示す画像信号を出力する画像パディング装置である。 Further, one aspect of the present invention is an image padding device that converts an arbitrary shape image into a rectangular image by padding and outputs an image signal indicating the rectangular image to an image coding device, and the arbitrary shape image is divided. For each image block, the shape information indicating the shape of the arbitrary shape image and the coded target block information indicating the position and size of the coded image block output from the image coding device are used. It was obtained by multiplying the image block by a padding necessity determination unit for determining whether or not padding is necessary, a sparse matrix indicating the pixel positions of pixels existing in the image block, and a sparse matrix for the image block. A solution unit that derives a padded image block based on the in-region pixel information and the in-screen predicted value output from the image coding device, and an image signal output that outputs the image signal to the image coding device. When it is determined that the padding is not necessary, the image signal output unit outputs an image signal indicating the image block, and when it is determined that the padding needs to be performed. This is an image padding device that outputs an image signal indicating the padded image block.
また、本発明の一態様は、上記の画像パディング装置であって、前記パディングを行う必要があると判定された場合、前記画面内予測値に基づいて、前記画像ブロック内の全ての画素がパディング対象領域を示す画素であるか否かを判定する領域外判定部、をさらに備え、前記画像信号出力部は、前記画像ブロック内の全ての画素がパディング対象領域を示す画素であると判定された場合、前記画面内予測値に基づく画像信号を出力する。 Further, one aspect of the present invention is the image padding device, and when it is determined that the padding needs to be performed, all the pixels in the image block are padded based on the predicted value in the screen. The image signal output unit further includes an out-of-area determination unit for determining whether or not the pixel indicates a target area, and the image signal output unit determines that all the pixels in the image block are pixels indicating a padding target area. In this case, an image signal based on the predicted value in the screen is output.
また、本発明の一態様は、上記の画像パディング装置であって、前記求解部は、以下の数式によって表される最小化目的関数及び制約において、1Tuの値を最小化する前記パディング済み画像ブロックを示すxの値を導出する。 Another embodiment of the present invention is an image padding apparatus described above, the solution finding unit, in minimizing the objective function and constraints represented by the following formula, already the padding to minimize the value of 1 T u The value of x indicating the image block is derived.
ここで、uはn次元のベクトル、nは前記画像ブロックの画素数、zは前記画面内予測値、Dは前記疎行列、yは前記領域内画素情報、Φは画面内予測残差(x−z)の変換係数、及び1Tuは前記画像ブロック内の全ての画素の画素値の和を示す。 Here, u is an n-dimensional vector, n is the number of pixels of the image block, z is the predicted value in the screen, D is the sparse matrix, y is the pixel information in the region, and Φ is the predicted residual in the screen (x). transform coefficients -z), and 1 T u represents the sum of pixel values of all pixels in the image block.
また、本発明の一態様は、上記の画像パディング装置としてコンピュータを機能させるためのプログラムである。 Further, one aspect of the present invention is a program for operating a computer as the above-mentioned image padding device.
本発明により、任意形状画像に対し、符号量の増大を抑えつつ、より高速にパディング処理を行うことができる。 According to the present invention, it is possible to perform padding processing on an arbitrary shape image at a higher speed while suppressing an increase in the amount of code.
以下、本発明の一実施形態について、図面を参照しながら説明する。 Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
以下に説明する画像符号化システム1は、矩形画像である画像ブロックの単位で符号化を行うシステムである。画像符号化システム1は、符号化対象の任意形状画像を、画像ブロックに分割し、当該画像ブロックごとにパディングを行う。そして、画像符号化システム1は、パディングがなされた画像ブロックごとに符号化する。なお、パディングの方法としては任意の方法を用いることができる。 The image coding system 1 described below is a system that encodes in units of image blocks that are rectangular images. The image coding system 1 divides an arbitrary shape image to be coded into image blocks and performs padding for each image block. Then, the image coding system 1 encodes each padded image block. Any method can be used as the padding method.
以下、画像ブロックの画素数はn個であるものとする。また、パディングがなされた画像ブロック内の全ての画素の画素値を一次元に並べたベクトルをxとする。したがって、xはn次元ベクトルである。また、画像ブロック内における、任意形状画像の領域内部の画素数はm個(すなわち、m<n)であるものとする。また、領域内部の全ての画素の画素値を一次元に並べたベクトルをyとする。したがって、yはm次元ベクトルである。 Hereinafter, it is assumed that the number of pixels of the image block is n. Further, let x be a vector in which the pixel values of all the pixels in the padded image block are arranged in one dimension. Therefore, x is an n-dimensional vector. Further, it is assumed that the number of pixels in the region of the arbitrary shape image in the image block is m (that is, m <n). Further, let y be a vector in which the pixel values of all the pixels in the region are arranged in one dimension. Therefore, y is an m-dimensional vector.
ここで、m×nの行列を行列Dとし、Dx=y、という制約を考える。また、行列Dは、各行に1つだけ1の値が存在し、その他の値が全て0であるような疎行列であるものとする。画像ブロック内の全ての画素の画素値からなるxに対して行列Dを乗じることによって、任意形状画像の領域内部の全ての画素値からなるyが生成される。すなわち、この制約は、外挿領域(パディング対象領域)がいかなる画素値の画素によってパディングされたとしても、領域内部の画素値は不変であることを意味する。 Here, let the matrix of m × n be the matrix D, and consider the constraint that Dx = y. Further, it is assumed that the matrix D is a sparse matrix in which only one value of 1 exists in each row and all other values are 0. By multiplying x consisting of the pixel values of all the pixels in the image block by the matrix D, y consisting of all the pixel values inside the region of the arbitrary shape image is generated. That is, this restriction means that the pixel value inside the region does not change regardless of the pixel value of the extrapolated region (padding target region).
ところで、H.264/AVC及びH.265/HEVCでは、符号化効率を高めるため、符号化しようとする画像ブロックの周辺の復号済みの画素の画素値から、当該画像ブロック内の画素の画素値を予測する「画面内予測」という処理が行われる。 By the way, H. 264 / AVC and H. In 265 / HEVC, in order to improve the coding efficiency, a process called "in-screen prediction" that predicts the pixel values of the pixels in the image block from the pixel values of the decoded pixels around the image block to be encoded. Is done.
以下、画面内予測がなされた画像ブロック内の全ての画素の画素値を一次元に並べたベクトルをzとする。また、画像ブロックに対して変換処理を施すオペレータをΦとする。なお、ここでいう変換処理とは、上述したように非可逆画像符号化において大抵用いられる変換処理である。そして、パディング済みの画像ブロックの導出(すなわち、xの値の導出)を、下記の(1)式に示すように、Dx=yの制約の下でL0ノルムを最小化するxの値を求める最適化問題として定式化する。 Hereinafter, let z be a vector in which the pixel values of all the pixels in the image block predicted on the screen are arranged in one dimension. Further, let Φ be the operator that performs the conversion process on the image block. The conversion process referred to here is a conversion process that is usually used in lossy image coding as described above. Then, the derivation of the padded image block (that is, the derivation of the value of x) is performed to obtain the value of x that minimizes the L0 norm under the constraint of Dx = y, as shown in the following equation (1). Formulate as an optimization problem.
なお、目的関数である上記の||Φ(x−z)||0の項は、画面内予測残差(x−z)の変換係数の非零係数の個数を表しており、これは一般に、実際に発生する符号量を精度よく近似するものとされている。すなわち、上記(1)式を満たすxの値を求めることによって、符号量の増大を抑えつつパディング処理を行うことができる。 The term || Φ (x-z) || 0 , which is the objective function, represents the number of non-zero coefficients of the conversion coefficient of the predicted residual (x-z) in the screen. , It is supposed that the amount of code actually generated is accurately approximated. That is, by obtaining the value of x that satisfies the above equation (1), the padding process can be performed while suppressing the increase in the code amount.
しかしながら、L0ノルムは、非凸であるという数学的性質を有しているため、一般に、計算量の観点から最小化問題を解くことが困難であるとされている。そのため、L0ノルムに代えてL1ノルムで近似し、当該L1ノルムを最小化することが考えられる。すなわち、以下の(2)式に示すように、Dx=yの制約の下でL1ノルムを最小化するxの値を求める最適化問題として定式化することが考えられる。 However, since the L0 norm has a mathematical property of being non-convex, it is generally considered difficult to solve the minimization problem from the viewpoint of computational complexity. Therefore, it is conceivable to approximate with the L1 norm instead of the L0 norm and minimize the L1 norm. That is, as shown in the following equation (2), it is conceivable to formulate it as an optimization problem for finding the value of x that minimizes the L1 norm under the constraint of Dx = y.
なお、上記(2)式によって定式化された最適化問題を解く方法としては、一般に、例えば、非特許文献3に記載された近接勾配法(Proximal Gradient Method)、及びADMM法(Alternating Direction Method of Multipliers Method;交互方向乗数法)等の方法がある。このような方法によっても(2)式に示す最適化問題の解を求めることは可能ではあるが、本実施形態においては、より高速に解が求められるように、最小化目的関数と制約とを、それぞれ以下の(3)式のように定式化する。 As a method for solving the optimization problem formulated by the above equation (2), generally, for example, the Proximal Gradient Method described in Non-Patent Document 3 and the ADMM Method (Alternating Direction Method of) There are methods such as Multipliers Method). Although it is possible to find the solution of the optimization problem shown in Eq. (2) by such a method, in the present embodiment, the minimization objective function and the constraint are set so that the solution can be found at a higher speed. , Each is formulated as the following equation (3).
ここで、uはn次元ベクトルである。また、(3)式に示すように、Φ(x−z)(すなわち、画像ブロックの予測残差の変換係数を並べたn次元ベクトル)の各要素の絶対値はu以下であるという制約、及び、uの要素は非零であるという制約がある。ここで、1Tuは、uの全要素の和を表し、上記(3)式は、uを最小化するようなxの値を求めることを意味する。この最適化問題は、線形計画問題と呼ばれる問題に属しており、多くの解法が知られている。例えば、この最適化問題は、非特許文献4に記載の単体法(Simplex method)等によって効率的に解くことができる。 Here, u is an n-dimensional vector. Further, as shown in Eq. (3), the constraint that the absolute value of each element of Φ (x−z) (that is, an n-dimensional vector in which the conversion coefficients of the predicted residuals of the image block are arranged) is u or less. And there is a constraint that the element of u is non-zero. Here, 1 T u represents the sum of all the elements of u, equation (3) means determining the value of x that minimizes the u. This optimization problem belongs to a problem called a linear programming problem, and many solutions are known. For example, this optimization problem can be efficiently solved by the simplex method described in Non-Patent Document 4.
以下、本実施形態に係る画像符号化システム1の構成について説明するが、説明を分かり易くするため、一般的な画像符号化装置の機能構成についてまず説明する。 Hereinafter, the configuration of the image coding system 1 according to the present embodiment will be described, but for the sake of clarity, the functional configuration of a general image coding device will be described first.
[画像符号化装置の機能構成]
図1は、一般的な画像符号化装置10の機能構成を示すブロック図である。なお、本実施形態に係る画像符号化システム1が符号化の対象とする画像は、動画像ではなく静止画像である。そのため、図1においては、静止画像の符号化では用いられない画面間予測及び歪除去に係る機能部等の記載は省略している。
[Functional configuration of image encoding device]
FIG. 1 is a block diagram showing a functional configuration of a general image coding device 10. The image to be encoded by the image coding system 1 according to the present embodiment is not a moving image but a still image. Therefore, in FIG. 1, the description of the functional unit and the like related to inter-screen prediction and distortion removal, which are not used in the coding of still images, is omitted.
図1に示すように、画像符号化装置10は、画像信号入力部101と、減算部102と、変換部103と、量子化部104と、エントロピー符号化部105と、符号化データ出力部106と、逆量子化部107と、逆変換部108と、加算部109と、フレームメモリ110と、画面内予測部111と、を含んで構成される。 As shown in FIG. 1, the image coding device 10 includes an image signal input unit 101, a subtraction unit 102, a conversion unit 103, a quantization unit 104, an entropy coding unit 105, and a coded data output unit 106. The inverse quantization unit 107, the inverse conversion unit 108, the addition unit 109, the frame memory 110, and the in-screen prediction unit 111 are included.
画像信号入力部101は、符号化対象の画像信号の入力を受け付ける。画像信号入力部101は、入力された画像信号を分割し、所定の画像ブロック単位で画像信号を減算部102へ出力する。なお、所定の画像ブロック単位とは、例えばH.265/HEVCの場合、予測単位(Prediction Unit)と呼ばれる処理単位である。 The image signal input unit 101 receives the input of the image signal to be encoded. The image signal input unit 101 divides the input image signal and outputs the image signal to the subtraction unit 102 in units of predetermined image blocks. The predetermined image block unit is, for example, H. In the case of 265 / HEVC, it is a processing unit called a prediction unit.
減算部102は、画像信号入力部101から出力された画像信号を取得する。また、減算部102は、画面内予測部111から出力された、別途生成される予測信号を取得する。なお、予測信号とは、予測された、後の画像ブロックを示す画像信号である。減算部102は、取得した画像信号から予測信号を減算することにより、予測残差信号を得る。減算部102は、予測残差信号を変換部103へ出力する。 The subtraction unit 102 acquires the image signal output from the image signal input unit 101. Further, the subtraction unit 102 acquires a separately generated prediction signal output from the in-screen prediction unit 111. The prediction signal is an image signal indicating a predicted later image block. The subtraction unit 102 obtains a prediction residual signal by subtracting the prediction signal from the acquired image signal. The subtraction unit 102 outputs the predicted residual signal to the conversion unit 103.
変換部103は、減算部102から出力された予測残差信号を取得する。変換部103は、取得した予測残差信号に対して離散コサイン変換(DCT)処理を行う。変換部103は、離散コサイン変換された予測残差信号を量子化部104へ出力する。 The conversion unit 103 acquires the predicted residual signal output from the subtraction unit 102. The conversion unit 103 performs a discrete cosine transform (DCT) process on the acquired predicted residual signal. The conversion unit 103 outputs the discrete cosine-converted predicted residual signal to the quantization unit 104.
量子化部104は、変換部103から出力された予測残差信号を取得する。量子化部104は、取得した予測残差信号に対して量子化を行う。量子化部104は、量子化された予測残差信号をエントロピー符号化部105及び逆量子化部107へそれぞれ出力する。 The quantization unit 104 acquires the predicted residual signal output from the conversion unit 103. The quantization unit 104 quantizes the acquired predicted residual signal. The quantization unit 104 outputs the quantized predicted residual signal to the entropy coding unit 105 and the inverse quantization unit 107, respectively.
エントロピー符号化部105は、量子化部104から出力された予測残差信号を取得する。エントロピー符号化部105は、取得した予測残差信号に対してエントロピー符号化を行うことにより符号化データを得る。エントロピー符号化部105は、符号化データを符号化データ出力部106へ出力する。 The entropy coding unit 105 acquires the predicted residual signal output from the quantization unit 104. The entropy coding unit 105 obtains coded data by performing entropy coding on the acquired predicted residual signal. The entropy coding unit 105 outputs the coded data to the coded data output unit 106.
符号化データ出力部106は、エントロピー符号化部105から出力された符号化データを取得する。符号化データ出力部106は、取得した符号化データを出力する。 The coded data output unit 106 acquires the coded data output from the entropy coding unit 105. The coded data output unit 106 outputs the acquired coded data.
逆量子化部107は、量子化部104から出力された予測残差信号を取得する。逆量子化部107は、取得した予測残差信号に対して逆量子化を行う。逆量子化部107は、逆量子化された予測残差信号を逆変換部108へ出力する。 The inverse quantization unit 107 acquires the predicted residual signal output from the quantization unit 104. The inverse quantization unit 107 performs inverse quantization on the acquired predicted residual signal. The inverse quantization unit 107 outputs the inverse quantization predicted residual signal to the inverse conversion unit 108.
逆変換部108は、逆量子化部107から出力された予測残差信号を取得する。逆変換部108は、取得した予測残差信号に対して逆離散コサイン変換(逆DCT)処理を行う。逆変換部108は、逆離散コサイン変換がなされた予測残差信号を加算部109へ出力する。 The inverse conversion unit 108 acquires the predicted residual signal output from the inverse quantization unit 107. The inverse transform unit 108 performs an inverse discrete cosine transform (inverse DCT) process on the acquired predicted residual signal. The inverse transform unit 108 outputs the predicted residual signal subjected to the inverse discrete cosine transform to the adder unit 109.
加算部109は、逆変換部108から出力された予測残差信号を取得する。また、加算部109は、画面内予測部111から出力された、別途生成される予測信号を取得する。加算部109は、取得した予測残差信号に対して予測信号を加算することにより復号画像を示す画像信号(以下、「復号画像信号」という。)を得る。加算部109は、復号画像信号をフレームメモリ110に記憶させる。なお、フレームメモリ110に記憶される復号画像信号は、画像符号化装置10に対応する復号装置において復元される復号画像信号と同一の信号となる。 The addition unit 109 acquires the predicted residual signal output from the inverse conversion unit 108. Further, the addition unit 109 acquires a separately generated prediction signal output from the in-screen prediction unit 111. The adding unit 109 obtains an image signal (hereinafter, referred to as “decoded image signal”) indicating a decoded image by adding a predicted signal to the acquired predicted residual signal. The addition unit 109 stores the decoded image signal in the frame memory 110. The decoded image signal stored in the frame memory 110 is the same signal as the decoded image signal restored by the decoding device corresponding to the image coding device 10.
フレームメモリ110は、加算部109から出力された復号画像信号を記憶する。フレームメモリ110は、例えば、RAM(Random Access Memory;読み書き可能なメモリ)、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory)、及びHDD(Hard Disk Drive)等の記憶媒体、又はこれらの記憶媒体の任意の組み合わせによって構成される。 The frame memory 110 stores the decoded image signal output from the addition unit 109. The frame memory 110 is, for example, a storage medium such as a RAM (Random Access Memory; read / write memory), a flash memory, an EEPROM (Electrically Erasable Programmable Read Only Memory), and an HDD (Hard Disk Drive), or a storage medium thereof. Consists of any combination.
画面内予測部111は、フレームメモリ110に記憶された復号画像信号を用いて画面内予測処理を行い、予測信号を生成する。上述したように、予測信号とは、予測された、後の画像ブロックを示す画像信号である。画面内予測部111は、生成された予測信号を、減算部102及び加算部109へそれぞれ出力する。 The in-screen prediction unit 111 performs in-screen prediction processing using the decoded image signal stored in the frame memory 110 to generate a prediction signal. As described above, the prediction signal is an image signal indicating a predicted later image block. The in-screen prediction unit 111 outputs the generated prediction signal to the subtraction unit 102 and the addition unit 109, respectively.
なお、動き補償予測が行われず、フレーム内の全ての予測単位が画面内予測されて符号化されるフレームを、Iフレーム(Intra-coded Frame)という。 A frame in which motion compensation prediction is not performed and all prediction units in the frame are predicted and encoded in the screen is called an I frame (Intra-coded Frame).
[画面内予測処理]
以下、画面内予測部111によって行われる画面内予測処理の一例について説明する。図2は、一般的な画面内予測処理の概要の一例を示す模式図である。図2において、網掛けされた丸は、画面内において既に復号されている画素(以下、「参照画素」という。)である。また、網掛けされていない丸は、これから画面内予測及び符号化が行われる画素(以下、「予測画素」という。)であり、画像ブロックごとに纏まって存在している。図2に示す例の場合、予測画素は、4画素×4画素(すなわち、n=16)の画像ブロックごとに纏まって存在している。
[In-screen prediction processing]
Hereinafter, an example of the in-screen prediction process performed by the in-screen prediction unit 111 will be described. FIG. 2 is a schematic diagram showing an outline of a general in-screen prediction process. In FIG. 2, the shaded circles are pixels that have already been decoded in the screen (hereinafter, referred to as “reference pixels”). Further, the unshaded circles are pixels to be predicted and encoded in the screen (hereinafter, referred to as “predicted pixels”), and are collectively present for each image block. In the case of the example shown in FIG. 2, the predicted pixels are collectively present for each image block of 4 pixels × 4 pixels (that is, n = 16).
画面内予測処理とは、参照画素の情報を用いて、予測画素に対して何らかの値を対応付ける処理である。例えば、図2に示す例の場合、左上方向にある参照画素の画素値を、右下方向にある予測画素に対応付ける(コピーする)。なお、図2に示すコピーの方法は一例であり、その他の方法が用いられてもよい。例えばH.265/HEVCでは、上記のような左下方向から右上方向へのコピーの方法を含む、33通りの方向へのコピーの方法が用意されている。また、H.265/HEVCでは、参照画素の画素値の平均値を予測画素の画素値とする方法等も用いることができる。 The in-screen prediction process is a process of associating some value with the predicted pixel by using the information of the reference pixel. For example, in the case of the example shown in FIG. 2, the pixel value of the reference pixel in the upper left direction is associated with (copied) the predicted pixel in the lower right direction. The copying method shown in FIG. 2 is an example, and other methods may be used. For example, H. In 265 / HEVC, 33 methods of copying are provided, including the method of copying from the lower left direction to the upper right direction as described above. In addition, H. In 265 / HEVC, a method of using the average value of the pixel values of the reference pixels as the pixel value of the predicted pixel can also be used.
[画像符号化装置の動作]
以下、画像符号化装置10の動作の一例について説明する。図3は、一般的な画像符号化装置10の動作を示すフローチャートである。本フローチャートは、画像信号入力部101が、符号化対象の画像信号の入力を受け付け、入力された画像信号を所定の画像ブロック単位で減算部102へ出力した時点で開始される。
[Operation of image encoding device]
Hereinafter, an example of the operation of the image coding device 10 will be described. FIG. 3 is a flowchart showing the operation of a general image coding device 10. This flowchart starts when the image signal input unit 101 receives the input of the image signal to be encoded and outputs the input image signal to the subtraction unit 102 in units of predetermined image blocks.
減算部102は、画像信号入力部101から出力された画像信号を取得する。また、減算部102は、画面内予測部111から出力された予測信号を取得する。減算部102は、取得した画像信号から予測信号を減算することにより、予測残差信号を生成する(ステップS001)。減算部102は、予測残差信号を変換部103へ出力する。 The subtraction unit 102 acquires the image signal output from the image signal input unit 101. Further, the subtraction unit 102 acquires the prediction signal output from the in-screen prediction unit 111. The subtraction unit 102 generates a prediction residual signal by subtracting the prediction signal from the acquired image signal (step S001). The subtraction unit 102 outputs the predicted residual signal to the conversion unit 103.
変換部103は、取得した予測残差信号に対して離散コサイン変換(DCT)を行う。変換部103は、離散コサイン変換がなされた予測残差信号を量子化部104へ出力する。量子化部104は、取得した予測残差信号に対して量子化を行う(ステップS002)。量子化部104は、量子化された予測残差信号をエントロピー符号化部105及び逆量子化部107へそれぞれ出力する。 The conversion unit 103 performs a discrete cosine transform (DCT) on the acquired predicted residual signal. The conversion unit 103 outputs the predicted residual signal subjected to the discrete cosine transform to the quantization unit 104. The quantization unit 104 performs quantization on the acquired predicted residual signal (step S002). The quantization unit 104 outputs the quantized predicted residual signal to the entropy coding unit 105 and the inverse quantization unit 107, respectively.
エントロピー符号化部105は、取得した予測残差信号に対してエントロピー符号化を行うことにより符号化データをを得る(ステップS003)。エントロピー符号化部105は、符号化データを符号化データ出力部106へ出力する。符号化データ出力部106は、取得した符号化データを出力する。 The entropy coding unit 105 obtains coded data by performing entropy coding on the acquired predicted residual signal (step S003). The entropy coding unit 105 outputs the coded data to the coded data output unit 106. The coded data output unit 106 outputs the acquired coded data.
逆量子化部107は、取得した予測残差信号に対して逆量子化する。逆量子化部107は、逆量子化された予測残差信号を逆変換部108へ出力する。逆変換部108は、取得した予測残差信号に対して逆離散コサイン変換(逆DCT)を行う。逆変換部108は、逆離散コサイン変換がなされた予測残差信号を加算部109へ出力する(ステップS004)。 The dequantization unit 107 dequantizes the acquired predicted residual signal. The inverse quantization unit 107 outputs the inverse quantization predicted residual signal to the inverse conversion unit 108. The inverse transform unit 108 performs inverse discrete cosine transform (inverse DCT) on the acquired predicted residual signal. The inverse transform unit 108 outputs the predicted residual signal subjected to the inverse discrete cosine transform to the adder unit 109 (step S004).
加算部109は、取得した予測残差信号に対して予測信号を加算することにより復号画像信号を生成する(ステップS005)。加算部109は、復号画像信号をフレームメモリ110に記憶させる(ステップS006)。 The addition unit 109 generates a decoded image signal by adding a prediction signal to the acquired prediction residual signal (step S005). The addition unit 109 stores the decoded image signal in the frame memory 110 (step S006).
画面内予測部111は、フレームメモリ110に記憶された復号画像信号を用いて画面内予測処理を行い、後の画像ブロックを示す予測信号を生成する(ステップS007)。画面内予測部111は、生成された予測信号を、減算部102及び加算部109へそれぞれ出力する。以上で、図3のフローチャートが示す画像符号化装置10の動作が終了する。 The in-screen prediction unit 111 performs in-screen prediction processing using the decoded image signal stored in the frame memory 110, and generates a prediction signal indicating a later image block (step S007). The in-screen prediction unit 111 outputs the generated prediction signal to the subtraction unit 102 and the addition unit 109, respectively. This completes the operation of the image coding device 10 shown in the flowchart of FIG.
[画像符号化システムの全体構成]
以下、画像符号化システム1の全体構成について説明する。図4は、本発明の一実施形態に係る画像符号化システム1の全体構成図である。図4に示すように、画像符号化システム1は、画像符号化装置10と、画像パディング装置20と、を含んで構成される。なお、図4に示す画像符号化装置10の機能構成は、上述した一般的な画像符号化装置10の機能構成と同一である。
[Overall configuration of image coding system]
Hereinafter, the overall configuration of the image coding system 1 will be described. FIG. 4 is an overall configuration diagram of the image coding system 1 according to the embodiment of the present invention. As shown in FIG. 4, the image coding system 1 includes an image coding device 10 and an image padding device 20. The functional configuration of the image coding device 10 shown in FIG. 4 is the same as the functional configuration of the general image coding device 10 described above.
まず、画像パディング装置20は、外部の装置から、符号化対象の任意形状画像を示す画像信号を取得する。また、画像パディング装置20は、外部の装置から、符号化対象の任意形状画像の形状を示す情報(以下、「形状情報」という。)を取得する。また、画像パディング装置20は、画像符号化装置10から、画面内予測処理の結果を示す画面内予測値、及び符号化対象ブロック情報を取得する。符号化対象ブロック情報とは、符号化対象の画像ブロックの位置及び大きさ示す情報を含む情報である。 First, the image padding device 20 acquires an image signal indicating an arbitrary shape image to be encoded from an external device. Further, the image padding device 20 acquires information indicating the shape of an arbitrary shape image to be encoded (hereinafter, referred to as “shape information”) from an external device. Further, the image padding device 20 acquires the in-screen prediction value indicating the result of the in-screen prediction processing and the coding target block information from the image coding device 10. The coded target block information is information including information indicating the position and size of the coded image block.
画像パディング装置20は、取得した上記の情報に基づいて、符号化対象の画像ブロックが、パディングを行う必要がある画像ブロックであるか否かを判定する。パディングを行う必要がないと判定された場合、画像パディング装置20は、当該画像ブロックを示す画像信号をそのまま画像符号化装置10へ出力する。一方、パディングを行う必要がないと判定された場合、画像パディング装置20は、符号化対象の画像ブロックに対してパディングを行い、パディングがなされた画像ブロックを示す画像信号を画像符号化装置10へ出力する。 The image padding device 20 determines whether or not the image block to be encoded is an image block that needs to be padded, based on the acquired information. When it is determined that it is not necessary to perform padding, the image padding device 20 outputs the image signal indicating the image block as it is to the image coding device 10. On the other hand, when it is determined that it is not necessary to perform padding, the image padding device 20 performs padding on the image block to be encoded, and sends an image signal indicating the padded image block to the image coding device 10. Output.
[画像パディング装置の機能構成]
以下、画像パディング装置20の機能構成について説明する。図5は、本発明の一実施形態に係る画像パディング装置20の機能構成を示すブロック図である。図5に示すように、画像パディング装置20は、画像信号入力部201と、形状情報入力部202と、符号化対象ブロック情報入力部203と、画面内予測値入力部204と、パディング要否判定部205と、領域外判定部206と、領域内画素取得部207と、線形問題求解部208と、画像信号出力部209と、を含んで構成される。
[Functional configuration of image padding device]
Hereinafter, the functional configuration of the image padding device 20 will be described. FIG. 5 is a block diagram showing a functional configuration of the image padding device 20 according to the embodiment of the present invention. As shown in FIG. 5, the image padding device 20 includes an image signal input unit 201, a shape information input unit 202, a coded block information input unit 203, an in-screen predicted value input unit 204, and a padding necessity determination. A unit 205, an out-of-area determination unit 206, an in-area pixel acquisition unit 207, a linear problem solving unit 208, and an image signal output unit 209 are included.
画像信号入力部201は、符号化対象の任意形状画像を示す画像信号の入力を受け付ける。画像信号入力部201は、入力された画像信号を分割し、所定の画像ブロック単位でパディング要否判定部205へ出力する。 The image signal input unit 201 receives an input of an image signal indicating an arbitrary shape image to be encoded. The image signal input unit 201 divides the input image signal and outputs it to the padding necessity determination unit 205 in units of predetermined image blocks.
形状情報入力部202は、形状情報の入力を受け付ける。形状情報入力部202は、入力された形状情報をパディング要否判定部205へ出力する。 The shape information input unit 202 accepts input of shape information. The shape information input unit 202 outputs the input shape information to the padding necessity determination unit 205.
符号化対象ブロック情報入力部203は、画像符号化装置10から符号化対象ブロック情報を取得する。符号化対象ブロック情報入力部203は、取得した符号化対象ブロック情報をパディング要否判定部205へ出力する。 The coding target block information input unit 203 acquires the coding target block information from the image coding device 10. The coded target block information input unit 203 outputs the acquired coded target block information to the padding necessity determination unit 205.
画面内予測値入力部204は、画像符号化装置10から画面内予測値を取得する。画面内予測値入力部204は、取得した画面内予測値を領域外判定部206へ出力する。 The in-screen predicted value input unit 204 acquires the in-screen predicted value from the image coding device 10. The in-screen predicted value input unit 204 outputs the acquired in-screen predicted value to the out-of-area determination unit 206.
パディング要否判定部205は、画像信号入力部201から出力された画像信号を取得する。また、パディング要否判定部205は、形状情報入力部202から出力された形状情報を取得する。また、パディング要否判定部205は、符号化対象ブロック情報入力部203から出力された符号化対象ブロック情報を取得する。パディング要否判定部205は、形状情報と符号化対象ブロック情報とに基づいて、画像信号に対してパディングを行う必要があるか否かを判定する。具体的には、パディング要否判定部205は、画像信号に基づく画像ブロック内の全ての画素が任意形状画像の領域内部を示す画素であるか否か(すなわち、m=nであるか否か)を判定することにより、画像信号に対してパディングを行う必要があるか否かを判定する。 The padding necessity determination unit 205 acquires the image signal output from the image signal input unit 201. Further, the padding necessity determination unit 205 acquires the shape information output from the shape information input unit 202. Further, the padding necessity determination unit 205 acquires the coding target block information output from the coding target block information input unit 203. The padding necessity determination unit 205 determines whether or not it is necessary to perform padding on the image signal based on the shape information and the coding target block information. Specifically, the padding necessity determination unit 205 determines whether or not all the pixels in the image block based on the image signal are pixels indicating the inside of the region of the arbitrary shape image (that is, whether or not m = n). ) Is determined to determine whether or not it is necessary to perform padding on the image signal.
パディングを行う必要がないと判定された場合(すなわち、m=nであり、画像ブロック内の全ての画素が領域内部に存在している場合)、パディング要否判定部205は、取得した画像信号を画像信号出力部209へ出力する。一方、パディングを行う必要があると判定された場合(すなわち、m<nであり、画像ブロック内の画素のうち少なくとも1つが外挿領域を示す画素である場合)、パディング要否判定部205は、取得した画像信号を領域外判定部206へ出力する。 When it is determined that it is not necessary to perform padding (that is, when m = n and all the pixels in the image block exist inside the region), the padding necessity determination unit 205 determines the acquired image signal. Is output to the image signal output unit 209. On the other hand, when it is determined that padding is necessary (that is, when m <n and at least one of the pixels in the image block is a pixel indicating an extrapolation region), the padding necessity determination unit 205 , The acquired image signal is output to the extrapolation determination unit 206.
領域外判定部206は、パディング要否判定部205から出力された画像信号を取得する。また、領域外判定部206は、画面内予測値入力部204から出力された画面内予測値(すなわち、上述したzの値。以下、「画面内予測値z」という。)を取得する。領域外判定部206は、取得した画面内予測値zに基づいて、画像信号に基づく画像ブロック内の全ての画素が外挿領域を示す画素であるか否か(すなわち、m=0であるか否か)を判定する。 The out-of-region determination unit 206 acquires the image signal output from the padding necessity determination unit 205. Further, the out-of-area determination unit 206 acquires the in-screen prediction value (that is, the above-mentioned value of z; hereinafter referred to as “in-screen prediction value z”) output from the in-screen prediction value input unit 204. Based on the acquired in-screen predicted value z, the out-of-region determination unit 206 determines whether or not all the pixels in the image block based on the image signal are pixels indicating the extrapolation region (that is, m = 0). Whether or not) is determined.
画像ブロック内の全ての画素が外挿領域を示す画素であると判定された場合(すなわち、m=0である場合)、領域外判定部206は、画面内予測値zを画像信号出力部209へ出力する。なお、この場合、画面内予測残差(x−z)が全て0となる。一方、画像ブロック内の画素のうち少なくとも1つの画素が任意形状画像の領域内部を示す画素であると判定された場合(すなわち、m>0である場合)、領域外判定部206は、画像信号及び画面内予測値zを領域内画素取得部207へ出力する。 When it is determined that all the pixels in the image block are pixels indicating the extrapolation region (that is, when m = 0), the out-of-region determination unit 206 determines the in-screen predicted value z as the image signal output unit 209. Output to. In this case, the predicted residuals (x-z) in the screen are all 0. On the other hand, when it is determined that at least one of the pixels in the image block is a pixel indicating the inside of the region of the arbitrary shape image (that is, when m> 0), the out-of-region determination unit 206 uses the image signal. And the in-screen predicted value z is output to the in-region pixel acquisition unit 207.
領域内画素取得部207は、領域外判定部206から出力された画像信号及び画面内予測値zを取得する。また、領域内画素取得部207は、画像ブロック内に存在する画素の画素位置を示す、上述した疎行列Dを生成する。領域内画素取得部207は、取得した画像信号に対して疎行列Dを乗じることによって、領域内画素情報(すなわち、上述したyの値。以下、「領域内画素y」という)を得る。領域内画素取得部207は、疎行列D、領域内画素y)、及び画面内予測値zを、線形問題求解部208へ出力する。 The in-region pixel acquisition unit 207 acquires the image signal output from the out-of-region determination unit 206 and the in-screen predicted value z. Further, the in-region pixel acquisition unit 207 generates the above-mentioned sparse matrix D indicating the pixel positions of the pixels existing in the image block. The intra-regional pixel acquisition unit 207 obtains intra-regional pixel information (that is, the value of y described above, hereinafter referred to as “intra-regional pixel y”) by multiplying the acquired image signal by a sparse matrix D. The in-region pixel acquisition unit 207 outputs the sparse matrix D, the in-region pixels y), and the in-screen predicted value z to the linear problem solving unit 208.
線形問題求解部208は、領域内画素取得部207から出力された、疎行列D、領域内画素y、及び画面内予測値zを取得する。線形問題求解部208は、取得した疎行列D、領域内画素y、及び画面内予測値zに基づいて、上述した(3)式を満たすxの値を導出する。例えば、線形問題求解部208は、Simplex法等によってxの値を導出する。線形問題求解部208は、xの値を画像信号出力部209へ出力する。 The linear problem solving unit 208 acquires the sparse matrix D, the area pixel y, and the in-screen predicted value z output from the area pixel acquisition unit 207. The linear problem solving unit 208 derives a value of x that satisfies the above equation (3) based on the acquired sparse matrix D, the pixel y in the region, and the predicted value z in the screen. For example, the linear problem solving unit 208 derives the value of x by the Simplex method or the like. The linear problem solving unit 208 outputs the value of x to the image signal output unit 209.
画像信号出力部209は、パディング要否判定部205から出力された画像信号を取得した場合、当該画像信号を画像符号化装置10へ出力する。また、画像信号出力部209は、領域外判定部206から出力された画面内予測値zを取得した場合、当該画面内予測値zを画像符号化装置10へ出力する。また、画像信号出力部209は、線形問題求解部208から出力されたxの値を取得した場合、当該xの値を画像符号化装置10へ出力する。 When the image signal output unit 209 acquires the image signal output from the padding necessity determination unit 205, the image signal output unit 209 outputs the image signal to the image coding device 10. Further, when the image signal output unit 209 acquires the in-screen predicted value z output from the out-of-area determination unit 206, the image signal output unit 209 outputs the in-screen predicted value z to the image coding device 10. Further, when the image signal output unit 209 acquires the value of x output from the linear problem solving unit 208, the image signal output unit 209 outputs the value of x to the image coding device 10.
[画像パディング装置の動作]
以下、画像パディング装置20の動作の一例について説明する。図6は、本発明の一実施形態に係る画像パディング装置20の動作を示すフローチャートである。本フローチャートは、画像パディング装置20に対して画像信号が入力される時点で開始される。
[Operation of image padding device]
Hereinafter, an example of the operation of the image padding device 20 will be described. FIG. 6 is a flowchart showing the operation of the image padding device 20 according to the embodiment of the present invention. This flowchart starts when an image signal is input to the image padding device 20.
画像信号入力部201は、符号化対象の画像信号の入力を受け付ける(ステップS101)。画像信号入力部201は、入力された画像信号を所定の画像ブロック単位でパディング要否判定部205へ出力する。 The image signal input unit 201 receives the input of the image signal to be encoded (step S101). The image signal input unit 201 outputs the input image signal to the padding necessity determination unit 205 in units of predetermined image blocks.
パディング要否判定部205は、形状情報入力部202から取得した形状情報と、画像符号化装置10から符号化対象ブロック情報入力部203を介して取得した符号化対象ブロック情報と、に基づいて、画像信号に対してパディングを行う必要があるか否かを判定する(ステップS102)。 The padding necessity determination unit 205 is based on the shape information acquired from the shape information input unit 202 and the coded object block information acquired from the image coding device 10 via the coded object block information input unit 203. It is determined whether or not it is necessary to perform padding on the image signal (step S102).
パディングを行う必要がないと判例された場合(ステップS102・No)、パディング要否判定部205は、取得した画像信号を画像信号出力部209を介して画像符号化装置10へ出力する(ステップS103)。 When it is determined that it is not necessary to perform padding (step S102 / No), the padding necessity determination unit 205 outputs the acquired image signal to the image coding device 10 via the image signal output unit 209 (step S103). ).
一方、パディングを行う必要があると判定された場合(ステップS102・Yes)、パディング要否判定部205は、取得した画像信号を領域外判定部206へ出力する。領域外判定部206は、画面内予測値入力部204から出力された画面内予測値zを取得する(ステップS104)。領域外判定部206は、取得した画面内予測値zに基づいて、画像信号に基づく画像ブロック内の全ての画素が外挿領域を示す画素であるか否かを判定する(ステップS105)。 On the other hand, when it is determined that padding is necessary (step S102 · Yes), the padding necessity determination unit 205 outputs the acquired image signal to the out-of-region determination unit 206. The out-of-area determination unit 206 acquires the in-screen predicted value z output from the in-screen predicted value input unit 204 (step S104). The out-of-region determination unit 206 determines whether or not all the pixels in the image block based on the image signal are pixels indicating the extrapolation region based on the acquired in-screen prediction value z (step S105).
画像ブロック内の全ての画素が外挿領域を示す画素であると判定された存在する場合(ステップS105・Yes)、領域外判定部206は、画面内予測値zを画像信号出力部209を介して画像符号化装置10へ出力する(ステップS106)。 When all the pixels in the image block are determined to be pixels indicating the extrapolation region (step S105 · Yes), the out-of-region determination unit 206 determines the in-screen predicted value z via the image signal output unit 209. Is output to the image coding apparatus 10 (step S106).
一方、画像ブロック内の画素のうち少なくとも1つの任意形状画像の領域内部に存在する画素であると判定された場合(ステップS105・No)、領域外判定部206は、画像信号及び画面内予測値zを領域内画素取得部207へ出力する。次に、領域内画素取得部207は、画像ブロック内に存在する画素の画素位置を示す疎行列Dを生成する(ステップS107)。領域内画素取得部207は、取得した画像信号に対して疎行列Dを乗じることにより、領域内画素yを得る。領域内画素取得部207は、疎行列D、領域内画素y、及び画面内予測値zを、線形問題求解部208へ出力する。 On the other hand, when it is determined that the pixels exist inside the region of at least one arbitrary shape image among the pixels in the image block (step S105 / No), the out-of-region determination unit 206 determines the image signal and the in-screen predicted value. z is output to the in-region pixel acquisition unit 207. Next, the in-region pixel acquisition unit 207 generates a sparse matrix D indicating the pixel positions of the pixels existing in the image block (step S107). The in-region pixel acquisition unit 207 obtains the in-region pixel y by multiplying the acquired image signal by a sparse matrix D. The in-region pixel acquisition unit 207 outputs the sparse matrix D, the in-region pixel y, and the in-screen predicted value z to the linear problem solving unit 208.
線形問題求解部208は、取得した疎行列D、領域内画素y、及び画面内予測値zに基づいて、上述した(3)式を満たすxの値を導出することにより線形計画問題の解を求める(ステップS108)。線形問題求解部208は、xの値を画像信号出力部209を介して画像符号化装置10へ出力する(ステップS109)。以上で、図6のフローチャートが示す画像パディング装置20の動作が終了する。 The linear problem solving unit 208 solves the linear programming problem by deriving the value of x that satisfies the above equation (3) based on the acquired sparse matrix D, the pixels y in the region, and the predicted value z in the screen. Obtain (step S108). The linear problem solving unit 208 outputs the value of x to the image coding device 10 via the image signal output unit 209 (step S109). This completes the operation of the image padding device 20 shown in the flowchart of FIG.
以上説明したように、上述した本発明の一実施形態に係る画像パディング装置20は、パディングにより任意形状画像を矩形画像に変換し、前記矩形画像を示す画像信号を画像符号化装置10へ出力する。画像パディング装置20は、パディング要否判定部205と、線形問題求解部208(求解部)と、画像信号出力部209と、を含む。パディング要否判定部205は、前記任意形状画像が分割された画像ブロックごとに、前記任意形状画像の形状を示す形状情報と、前記画像符号化装置10から出力された符号化対象の前記画像ブロックの位置及び大きさ示す符号化対象ブロック情報と、に基づいてパディングを行う必要があるか否かを判定する。線形問題求解部208は、前記画像ブロック内に存在する画素の画素位置を示す疎行列Dと、前記画像ブロックに対して疎行列Dを乗じて得られた領域内画素yと、前記画像符号化装置10から出力された画面内予測値zと、に基づいてパディング済み画像ブロックを示すxの値を導出する。前記画像信号出力部209は、前記パディングを行う必要がないと判定された場合、前記画像ブロックを示す画像信号を出力し、前記パディングを行う必要があると判定された場合、前記xの値を出力する。 As described above, the image padding device 20 according to the embodiment of the present invention described above converts an arbitrary shape image into a rectangular image by padding, and outputs an image signal indicating the rectangular image to the image coding device 10. .. The image padding device 20 includes a padding necessity determination unit 205, a linear problem solving unit 208 (solving unit), and an image signal output unit 209. The padding necessity determination unit 205 includes shape information indicating the shape of the arbitrary shape image and the image block to be encoded output from the image coding device 10 for each image block in which the arbitrary shape image is divided. It is determined whether or not padding needs to be performed based on the coded block information indicating the position and size of the image. The linear problem solving unit 208 includes a sparse matrix D indicating the pixel positions of pixels existing in the image block, an in-region pixel y obtained by multiplying the image block by a sparse matrix D, and the image coding. Based on the in-screen predicted value z output from the device 10, the value of x indicating the padded image block is derived. The image signal output unit 209 outputs an image signal indicating the image block when it is determined that the padding does not need to be performed, and when it is determined that the padding needs to be performed, the value of x is calculated. Output.
上記のような構成を有することにより、本発明の一実施形態に係る画像パディング装置20は、発生符号量を抑えつつ、効率的に任意形状画像に対するパディング処理を行うことができる。 By having the above-described configuration, the image padding device 20 according to the embodiment of the present invention can efficiently perform padding processing on an arbitrary shape image while suppressing the amount of generated code.
上述したように、従来のパディング方法では、符号化効率(データ圧縮率)が良くない、あるいは画像符号化に多くの時間を要するという課題がある。これに対し、本発明の一実施形態に係る画像パディング装置20は、例えば上記(3)式に示したような目的関数及び制約を設けることで、パディング処理を線形計画問題に帰着させる。これにより、画像パディング装置20は、符号化効率の低下を抑えする、より高速にパディングされた画像を生成することができる。 As described above, the conventional padding method has a problem that the coding efficiency (data compression rate) is not good or it takes a lot of time for image coding. On the other hand, the image padding device 20 according to the embodiment of the present invention reduces the padding process to a linear programming problem by providing, for example, an objective function and constraints as shown in the above equation (3). As a result, the image padding device 20 can generate a padded image at a higher speed while suppressing a decrease in coding efficiency.
また、本発明の一実施形態に係る画像パディング装置20は、任意形状画像に対してパディングを行うことにより当該任意形状画像を矩形化するため、矩形画像のみを符号化対象とするような一般的な画像符号化方式を用いて任意形状画像を符号化させることを可能にする。また、画像パディング装置20は、符号量の増加を抑えることができ、より少ない符号量でより高い品質の復号画像を得ることができ、従来の符号化方式よりも効率的に画像を圧縮することができる。 Further, since the image padding device 20 according to the embodiment of the present invention rectangularizes the arbitrary shape image by padding the arbitrary shape image, it is general that only the rectangular image is to be encoded. It is possible to encode an arbitrary shape image by using a simple image coding method. Further, the image padding device 20 can suppress an increase in the code amount, can obtain a decoded image of higher quality with a smaller code amount, and compress the image more efficiently than the conventional coding method. Can be done.
このように、本発明の一実施形態に係る画像パディング装置20は、画像符号化におけるデータ圧縮率を高めることを目的として、任意形状画像の符号化及び復号を行う場合に対して広く適用可能である。 As described above, the image padding device 20 according to the embodiment of the present invention can be widely applied to the case of coding and decoding an arbitrary shape image for the purpose of increasing the data compression rate in image coding. is there.
なお、上述した実施形態では、画像符号化装置10と画像パディング装置20とが別々の装置であるものとしたが、これに限られるものではない。1つの情報処理装置(例えば汎用コンピュータ等)が、上述した画像符号化装置10の機能部と画像パディング装置の機能部とを備える構成であってもよい。 In the above-described embodiment, the image coding device 10 and the image padding device 20 are separate devices, but the present invention is not limited to this. One information processing device (for example, a general-purpose computer or the like) may be configured to include the functional unit of the image coding device 10 and the functional unit of the image padding device described above.
上述した実施形態における画像符号化システム1の一部または全部を、コンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、上述した機能の一部を実現するためのものであっても良く、さらに上述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、PLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されるものであってもよい。 A part or all of the image coding system 1 in the above-described embodiment may be realized by a computer. In that case, the program for realizing this function may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read by the computer system and executed. The term "computer system" as used herein includes hardware such as an OS and peripheral devices. Further, the "computer-readable recording medium" refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, or a CD-ROM, or a storage device such as a hard disk built in a computer system. Further, a "computer-readable recording medium" is a communication line for transmitting a program via a network such as the Internet or a communication line such as a telephone line, and dynamically holds the program for a short period of time. It may also include a program that holds a program for a certain period of time, such as a volatile memory inside a computer system that serves as a server or a client in that case. Further, the above program may be for realizing a part of the above-mentioned functions, and may be further realized for realizing the above-mentioned functions in combination with a program already recorded in the computer system. It may be realized by using hardware such as PLD (Programmable Logic Device) or FPGA (Field Programmable Gate Array).
以上、図面を参照して本発明の実施形態を説明してきたが、上記実施形態は本発明の例示に過ぎず、本発明が上記実施形態に限定されるものではないことは明らかである。したがって、本発明の技術思想及び要旨を逸脱しない範囲で構成要素の追加、省略、置換、及びその他の変更を行ってもよい。 Although the embodiments of the present invention have been described above with reference to the drawings, it is clear that the above embodiments are merely examples of the present invention, and the present invention is not limited to the above embodiments. Therefore, components may be added, omitted, replaced, and other changes may be made without departing from the technical idea and gist of the present invention.
1…画像符号化システム、10…画像符号化装置、20…画像パディング装置、101…画像信号入力部、102…減算部、103…変換部、104…量子化部、105…エントロピー符号化部、106…符号化データ出力部、107…逆量子化部、108…逆変換部、109…加算部、110…フレームメモリ、111…画面内予測部、201…画像信号入力部、202…形状情報入力部、203…符号化対象ブロック情報入力部、204…画面内予測値入力部、205…パディング要否判定部、206…領域外判定部、207…領域内画素取得部、208…線形問題求解部、209…画像信号出力部 1 ... Image coding system, 10 ... Image coding device, 20 ... Image padding device, 101 ... Image signal input unit, 102 ... Subtraction unit, 103 ... Conversion unit, 104 ... Quantization unit, 105 ... Entropy coding unit, 106 ... Encoded data output unit, 107 ... Inverse quantization unit, 108 ... Inverse conversion unit, 109 ... Addition unit, 110 ... Frame memory, 111 ... In-screen prediction unit, 201 ... Image signal input unit, 202 ... Shape information input Unit, 203 ... Coded block information input unit, 204 ... In-screen prediction value input unit, 205 ... Padding necessity determination unit, 206 ... Out-of-area determination unit, 207 ... In-area pixel acquisition unit, 208 ... Linear problem solving unit , 209 ... Image signal output unit
Claims (5)
前記任意形状画像が分割された画像ブロックごとに、前記任意形状画像の形状を示す形状情報と、前記画像符号化装置から出力された符号化対象の前記画像ブロックの位置及び大きさ示す符号化対象ブロック情報と、に基づいてパディングを行う必要があるか否かを判定するパディング要否判定ステップと、
前記画像ブロック内に存在する画素の画素位置を示す疎行列と、前記画像ブロックに対して疎行列を乗じて得られた領域内画素情報と、前記画像符号化装置から出力された画面内予測値と、に基づいてパディング済み画像ブロックを導出する求解ステップと、
前記パディングを行う必要がないと判定された場合、前記画像ブロックを示す画像信号を前記画像符号化装置へ出力し、前記パディングを行う必要があると判定された場合、前記パディング済み画像ブロックを示す画像信号を前記画像符号化装置へ出力する画像信号出力ステップと、
を有する画像パディング方法。 An image padding method that converts an arbitrary shape image into a rectangular image by padding and outputs an image signal indicating the rectangular image to an image encoding device.
For each image block in which the arbitrary shape image is divided, shape information indicating the shape of the arbitrary shape image and a coding target indicating the position and size of the image block to be encoded output from the image coding device. A padding necessity determination step for determining whether or not padding needs to be performed based on the block information, and
A sparse matrix indicating the pixel positions of pixels existing in the image block, intra-regional pixel information obtained by multiplying the image block by a sparse matrix, and an in-screen predicted value output from the image encoding device. And the solution step to derive the padded image block based on
When it is determined that the padding is not necessary, an image signal indicating the image block is output to the image encoding device, and when it is determined that the padding is necessary, the padded image block is indicated. An image signal output step for outputting an image signal to the image encoding device, and
Image padding method with.
前記任意形状画像が分割された画像ブロックごとに、前記任意形状画像の形状を示す形状情報と、前記画像符号化装置から出力された符号化対象の前記画像ブロックの位置及び大きさ示す符号化対象ブロック情報と、に基づいてパディングを行う必要があるか否かを判定するパディング要否判定部と、
前記画像ブロック内に存在する画素の画素位置を示す疎行列と、前記画像ブロックに対して疎行列を乗じて得られた領域内画素情報と、前記画像符号化装置から出力された画面内予測値と、に基づいてパディング済み画像ブロックを導出する求解部と、
前記画像信号を前記画像符号化装置へ出力する画像信号出力部と、
を備え、
前記画像信号出力部は、
前記パディングを行う必要がないと判定された場合、前記画像ブロックを示す画像信号を出力し、
前記パディングを行う必要があると判定された場合、前記パディング済み画像ブロックを示す画像信号を出力する
画像パディング装置。 An image padding device that converts an arbitrary shape image into a rectangular image by padding and outputs an image signal indicating the rectangular image to an image coding device.
For each image block in which the arbitrary shape image is divided, shape information indicating the shape of the arbitrary shape image and a coding target indicating the position and size of the image block to be encoded output from the image coding device. A padding necessity determination unit that determines whether or not padding needs to be performed based on the block information, and
A sparse matrix indicating the pixel positions of pixels existing in the image block, intra-regional pixel information obtained by multiplying the image block by a sparse matrix, and an in-screen predicted value output from the image encoding device. And the solution part that derives the padded image block based on
An image signal output unit that outputs the image signal to the image encoding device,
With
The image signal output unit
When it is determined that the padding does not need to be performed, an image signal indicating the image block is output.
An image padding device that outputs an image signal indicating the padded image block when it is determined that the padding needs to be performed.
をさらに備え、
前記画像信号出力部は、
前記画像ブロック内の全ての画素がパディング対象領域を示す画素であると判定された場合、前記画面内予測値に基づく画像信号を出力する
請求項2に記載の画像パディング装置。 When it is determined that it is necessary to perform the padding, an out-of-area determination unit that determines whether or not all the pixels in the image block are pixels indicating a padding target region based on the in-screen prediction value.
With more
The image signal output unit
The image padding device according to claim 2, wherein when it is determined that all the pixels in the image block are pixels indicating a padding target area, an image signal based on the predicted value in the screen is output.
以下の数式によって表される最小化目的関数及び制約において、1Tuの値を最小化する前記パディング済み画像ブロックを示すxの値を導出する
請求項2又は請求項3に記載の画像パディング装置。
In minimizing the objective function and constraints represented by the following equation, the image padding device according to claim 2 or claim 3 derives a value of x indicating the padded image block that minimizes the value of 1 T u ..
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2019047129A JP7154507B2 (en) | 2019-03-14 | 2019-03-14 | Image padding method, image padding device, and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2019047129A JP7154507B2 (en) | 2019-03-14 | 2019-03-14 | Image padding method, image padding device, and program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2020150441A true JP2020150441A (en) | 2020-09-17 |
| JP7154507B2 JP7154507B2 (en) | 2022-10-18 |
Family
ID=72432296
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2019047129A Active JP7154507B2 (en) | 2019-03-14 | 2019-03-14 | Image padding method, image padding device, and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7154507B2 (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2024080841A1 (en) * | 2022-10-13 | 2024-04-18 | 한국전자통신연구원 | Method and device for image encoding/decoding, and recording medium |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002199395A (en) * | 2000-12-25 | 2002-07-12 | Canon Inc | Image processing method and image processing apparatus |
-
2019
- 2019-03-14 JP JP2019047129A patent/JP7154507B2/en active Active
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002199395A (en) * | 2000-12-25 | 2002-07-12 | Canon Inc | Image processing method and image processing apparatus |
Non-Patent Citations (1)
| Title |
|---|
| 高木幸一、外2名: "ビットレート−ひずみ特性を考慮した任意形状符号化のためのパディング法", 電子情報通信学会論文誌, vol. 84, no. 2, JPN6022016558, 1 February 2001 (2001-02-01), pages 238 - 247, ISSN: 0004766499 * |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2024080841A1 (en) * | 2022-10-13 | 2024-04-18 | 한국전자통신연구원 | Method and device for image encoding/decoding, and recording medium |
Also Published As
| Publication number | Publication date |
|---|---|
| JP7154507B2 (en) | 2022-10-18 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10469840B2 (en) | Motion picture encoding apparatus and method thereof | |
| KR101446771B1 (en) | Image coding apparatus and image decoding apparatus | |
| JP5590133B2 (en) | Moving picture coding apparatus, moving picture coding method, moving picture coding computer program, moving picture decoding apparatus, moving picture decoding method, and moving picture decoding computer program | |
| WO2013003726A1 (en) | Block based adaptive loop filter | |
| EP4391529A2 (en) | Image encoding device, image decoding device, and image processing method | |
| US8243802B2 (en) | Moving picture encoding apparatus, moving picture encoding method, moving picture encoding program, moving picture decoding apparatus, moving picture decoding method, and moving picture decoding program | |
| JP6459761B2 (en) | Moving picture coding apparatus, moving picture coding method, and moving picture coding computer program | |
| WO2020159982A1 (en) | Shape adaptive discrete cosine transform for geometric partitioning with an adaptive number of regions | |
| KR102903979B1 (en) | Methods and devices for coding and decoding a data stream representing at least one image | |
| US11202073B2 (en) | Methods and apparatuses of quantization scaling of transform coefficients in video coding system | |
| US9319680B2 (en) | Image encoding apparatus and its control method | |
| KR100908282B1 (en) | A stepwise reversible video encoding method, a stepwise reversible video decoding method, a stepwise reversible video encoding apparatus, a stepwise reversible video decoding apparatus, a recording medium of the program thereof | |
| JPWO2016194380A1 (en) | Moving picture coding apparatus, moving picture coding method, and recording medium storing moving picture coding program | |
| JP7154507B2 (en) | Image padding method, image padding device, and program | |
| JP5698644B2 (en) | Video predictive encoding method, video predictive encoding device, video predictive encoding program, video predictive decoding method, video predictive decoding device, and video predictive decode program | |
| JP2012065120A (en) | Filter coefficient setting device, filter coefficient setting method, and image encoder | |
| WO2012128209A1 (en) | Image encoding device, image decoding device, program, and encoded data | |
| JP5809574B2 (en) | Encoding method, decoding method, encoding device, decoding device, encoding program, and decoding program | |
| Qiu et al. | Dc coefficients recovery from ac coefficients in the jpeg compression scenario | |
| CN105052148B (en) | Video coding apparatus and method, video decoder and method and its recording medium | |
| KR20250035358A (en) | Method and electronic device for video encoding | |
| JP5728330B2 (en) | Moving picture encoding apparatus, moving picture decoding apparatus, moving picture encoding method, moving picture decoding method, and program | |
| JP5957558B2 (en) | Video predictive encoding method, video predictive encoding device, video predictive encoding program, video predictive decoding method, video predictive decoding device, and video predictive decode program | |
| WO2020203962A1 (en) | Image generation device, image generation method, and program | |
| JP6306884B2 (en) | Predicted image generation method, image reconstruction method, predicted image generation device, image reconstruction device, predicted image generation program, image reconstruction program, and recording medium |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20190314 |
|
| A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20190401 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210702 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220428 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220510 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220707 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220802 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220908 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220920 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220922 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7154507 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |