JP2010288267A - Image processing method and image processing apparatus - Google Patents
Image processing method and image processing apparatus Download PDFInfo
- Publication number
- JP2010288267A JP2010288267A JP2010100640A JP2010100640A JP2010288267A JP 2010288267 A JP2010288267 A JP 2010288267A JP 2010100640 A JP2010100640 A JP 2010100640A JP 2010100640 A JP2010100640 A JP 2010100640A JP 2010288267 A JP2010288267 A JP 2010288267A
- Authority
- JP
- Japan
- Prior art keywords
- texture
- image
- value
- image processing
- rendered
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000012545 processing Methods 0.000 title claims description 78
- 238000003672 processing method Methods 0.000 title claims description 36
- 238000007906 compression Methods 0.000 claims abstract description 54
- 230000006835 compression Effects 0.000 claims abstract description 50
- 238000009877 rendering Methods 0.000 claims abstract description 49
- 238000000034 method Methods 0.000 claims description 74
- 239000007787 solid Substances 0.000 claims description 34
- 230000000295 complement effect Effects 0.000 claims description 10
- 239000011248 coating agent Substances 0.000 claims description 6
- 238000000576 coating method Methods 0.000 claims description 6
- 230000002441 reversible effect Effects 0.000 claims description 5
- 238000007781 pre-processing Methods 0.000 claims description 3
- 239000003973 paint Substances 0.000 claims description 2
- 238000010191 image analysis Methods 0.000 description 12
- 230000006837 decompression Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000006866 deterioration Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
Landscapes
- Image Processing (AREA)
- Image Generation (AREA)
- Editing Of Facsimile Originals (AREA)
- Compression Of Band Width Or Redundancy In Fax (AREA)
Abstract
【課題】3次元モデルのレンダリングに関するデータを効率良く管理する。
【解決手段】コンピューター20は、予め作成した所定パターンのテクスチャーを3次元モデルに貼り付けてレンダリングし、ビットマップ画像として得られたレンダリング済み画像を解析することによりレンダリング済み画像の座標(x,y)とテクスチャーの座標(Xt(x,y),Yt(x,y))との対応関係やゲインGc,t(x,y),バイアスBc,t(x,y)を設定する。そして、バイアスBc,t(x,y)のうちテクスチャー領域を抜き出し、テクスチャー領域用バイアスEc,t(x,y)については可逆圧縮により圧縮し、非テクスチャー領域用バイアスFc,t(x, y)についてはテクスチャー領域内の空白画素を境界付近で階調値が徐々に変化するよう補完した上でJPEG圧縮により圧縮する。
【選択図】図1Data relating to rendering of a three-dimensional model is efficiently managed.
A computer 20 pastes a texture of a predetermined pattern created in advance on a three-dimensional model, renders it, and analyzes a rendered image obtained as a bitmap image, thereby rendering the coordinates (x, y of the rendered image). ) And texture coordinates (Xt (x, y), Yt (x, y)), gain Gc, t (x, y), and bias Bc, t (x, y) are set. Then, the texture region is extracted from the bias Bc, t (x, y), the texture region bias Ec, t (x, y) is compressed by lossless compression, and the non-texture region bias Fc, t (x, y ) Is compressed by JPEG compression after complementing blank pixels in the texture area so that the gradation value gradually changes near the boundary.
[Selection] Figure 1
Description
本発明は、テクスチャーを貼り付けてレンダリングする際に用いられる画像データを処理する画像処理方法および画像処理装置に関する。 The present invention relates to an image processing method and an image processing apparatus for processing image data used when rendering by applying a texture.
従来、この種の画像処理方法としては、リアルタイムで3次元モデルをレンダリングしてディスプレイに表示するものや(例えば、特許文献1参照)、3次元モデルを予めレンダリングしてビットマップ画像を作成して保存しておきディスプレイの表示はビットマップ画像を読み込んで行なうものなどが提案されている。 Conventionally, as this type of image processing method, a three-dimensional model is rendered in real time and displayed on a display (see, for example, Patent Document 1), and a three-dimensional model is rendered in advance to create a bitmap image. It has been proposed to save and display the display by reading a bitmap image.
前者の手法では、画面の表示周期よりも短い周期でレンダリング処理を行なう必要があるため、高い演算能力が要求される。したがって、用いるコンピューターによっては、演算能力に不足が生じ、レイトレーシングなどの高品質のレンダリングは行なうことができない。一方、後者の手法では、ビットマップ画像を表示するだけであるから、予め高品質のレンダリングを行なってビットマップ画像を作成しておくことにより、高品質の画像を表示することができるものの、現状では後から異なるテクスチャーに差し替えて使用することはできない。また、こうした画像データはサイズも大きく、搭載するメモリの容量によっては効率的に管理することも求められる。 In the former method, since it is necessary to perform the rendering process at a cycle shorter than the display cycle of the screen, a high calculation capability is required. Therefore, depending on the computer to be used, there is a shortage in computing ability, and high quality rendering such as ray tracing cannot be performed. On the other hand, since the latter method only displays a bitmap image, it is possible to display a high-quality image by creating a bitmap image by performing high-quality rendering in advance. Then you can't replace it with a different texture later. Further, such image data is large in size and is required to be managed efficiently depending on the capacity of the mounted memory.
本発明の画像処理方法および画像処理装置は、3次元モデルのレンダリング画像を効率良く管理することを主目的とする。 An image processing method and an image processing apparatus according to the present invention are mainly intended to efficiently manage a rendering image of a three-dimensional model.
本発明の画像処理方法および画像処理装置は、上述の主目的を達成するために以下の手段を採った。 The image processing method and the image processing apparatus of the present invention employ the following means in order to achieve the main object described above.
本発明の画像処理方法は、
テクスチャーを貼り付けてレンダリングする際に用いられる画像データを処理する画像処理方法であって、
前記画像データから前記テクスチャーが貼り付けられるテクスチャー領域を抜き出し、
該抜き出したテクスチャー領域を可逆圧縮方式により圧縮し、前記画像データのうち前記テクスチャー領域を抜き出した後の該領域の空白画素を該領域の境界で徐々に画素値が変化するよう所定の補完処理により補完すると共に該補完した後の画像データをJPEG圧縮方式により圧縮する
ことを特徴とする。
The image processing method of the present invention includes:
An image processing method for processing image data used when rendering by pasting a texture,
Extracting the texture area where the texture is pasted from the image data,
The extracted texture area is compressed by a reversible compression method, and a blank pixel in the area after extracting the texture area in the image data is subjected to a predetermined complementing process so that the pixel value gradually changes at the boundary of the area. The image data after complementation is compressed by the JPEG compression method.
この本発明の画像処理方法では、画像データからテクスチャーが貼り付けられるテクスチャー領域を抜き出し、抜き出したテクスチャー領域を可逆圧縮方式により圧縮し、画像データのうちテクスチャー領域を抜き出した後の領域の空白画素を領域の境界で徐々に画素値が変化するよう所定の補完処理により補完すると共に補完した後の画像データをJPEG圧縮方式により圧縮する。これにより、画像データ全体として圧縮率を高めながら画質の向上を図ることができる。 In the image processing method of the present invention, a texture region to which a texture is pasted is extracted from image data, the extracted texture region is compressed by a reversible compression method, and blank pixels in the region after extracting the texture region are extracted from the image data. The pixel data is complemented by a predetermined complementing process so that the pixel value gradually changes at the boundary of the region, and the complemented image data is compressed by the JPEG compression method. Thereby, it is possible to improve the image quality while increasing the compression rate of the entire image data.
こうした本発明の画像処理方法において、前記所定の補完処理は、前記空白領域を隣接画素の平均画素値で埋めることにより補完する処理であるものとすることもできる。 In the image processing method of the present invention, the predetermined complementing process may be a process of complementing the blank area by filling in the average pixel value of adjacent pixels.
また、本発明の画像処理方法において、前記所定の補完処理は、前記画像データを所定サイズの複数の単位ブロックにより構成して、該複数の単位ブロックのうち前記非テクスチャー領域の一部が含まれるブロックに対しては前記空白領域を隣接画素の平均画素値で埋めることにより補完し、前記非テクスチャー領域が含まれないブロックに対しては前記空白画素を隣接ブロック内の各画素の平均画素値で埋めることにより補完する処理であるものとすることもできる。こうすれば、簡易な処理により圧縮率を高めることができる。 In the image processing method of the present invention, the predetermined complement processing includes the image data configured by a plurality of unit blocks of a predetermined size, and includes a part of the non-texture area among the plurality of unit blocks. The block is complemented by filling the blank area with an average pixel value of adjacent pixels, and for a block not including the non-texture area, the blank pixel is replaced with the average pixel value of each pixel in the adjacent block. It can also be a process that complements by filling. In this way, the compression rate can be increased by simple processing.
さらに、本発明の画像処理方法において、座標毎に異なる階調値が設定された所定パターンをテクスチャーとして3次元モデルに貼り付けてレンダリングし、該レンダリングによりビットマップ画像として得られたレンダリング済み画像を解析することにより該レンダリング済み画像の座標と前記所定パターンの座標との対応関係を設定して前記画像データと共に画像描画情報として保存し、所望のテクスチャーを画像として表示する際には、前記保存した画像描画情報に基づいて前記レンダリング済み画像中に前記所望のテクスチャーを配置して表示するものとすることもできる。こうすれば、3次元モデルをレンダリングした画像を所望のテクスチャーを差し替えて表示することができると共にリアルタイムで3次元モデルをレンダリングして表示するものに比して処理負担を少なくすることができる。ここで、画像の表示には、画像をフレーム単位で描画して動画像として表示するものが含まれる。この態様の本発明の画像処理方法において、前記レンダリング済み画像の各座標の階調値から対応する前記所定パターンの座標を特定することにより前記対応関係を導出するものとすることもできる。この態様の本発明の画像処理方法において、前記所定パターンは、座標を2進数で表現したときにビット数に応じた複数のパターンに、それぞれ座標毎に対応するビットの値に応じた階調値が設定されてなるものとすることもできる。こうすれば、対応関係をより正確に設定することができる。この場合、前記2進数は、グレイコード(交番2進数)であるものとすることもできる。こうすれば、隣接する座標に移行する際に常に1ビットの変化しか生じないから、画像の階調値の誤差に起因して誤ったデータが取得されてしまうのを抑制することができる。これらの態様の本発明の画像処理方法において、前記所定パターンとして前記対応関係を設定するための対応関係設定用パターンに加えてさらに最小階調値でベタ塗りしてなる第1ベタ塗りパターンを前記3次元モデルに貼り付けてレンダリングし、前記レンダリング済み画像における前記第1ベタ塗りパターンの階調値であるバイアス値を前記画像描画情報として保存し、前記保存したバイアス値に基づいて前記所望のテクスチャーの階調値をオフセットすることにより前記レンダリング済み画像の階調値に変換して表示するものとすることもできる。こうすれば、3次元モデルのレンダリングによる効果のうち元のテクスチャーに依存しないものを反映させることができる。この場合、前記画像データとして各画素のバイアス値から抜き出した前記テクスチャー領域のバイアス値を前記可逆圧縮方式により圧縮し、前記テクスチャー領域を抜き出した後の該領域の空白画素を所定の補完処理により補完すると共に該補完した後のバイアス値をJPEG圧縮方式により圧縮するものとすることもできる。さらに、これらの態様の本発明の画像処理方法において、前記所定パターンとして前記対応関係を設定するための対応関係設定用パターンに加えてさらに最小階調値でベタ塗りしてなる第1ベタ塗りパターンと最大階調値でベタ塗りしてなる第2ベタ塗りパターンとを前記3次元モデルに貼り付けてそれぞれレンダリングし、前記レンダリング済み画像における前記第2ベタ塗りパターンの階調値と前記第1ベタ塗りパターンの階調値との偏差であるゲインを算出して前記画像描画情報として保存し、前記保存したゲインに基づいて前記所望のテクスチャーの階調値を前記レンダリング済み画像の階調値に変換して表示するものとすることもできる。こうすれば、3次元モデルのレンダリングによる効果のうち元のテクスチャーの階調値に影響を受けるものを反映させることができる。この場合、前記レンダリング済み画像に複数の所望のテクスチャーを配置して表示する場合には、前記配置する所望のテクスチャーの数だけ設けられたセット群であって各セットが1つの前記第2ベタ塗りパターンと前記配置するテクスチャーの数から値1を減じた数の前記第1ベタ塗りパターンとからなると共に各セット毎に前記3次元モデルに前記第2ベタ塗りパターンを貼り付ける箇所が異なる第1のセット群と、前記配置する所望のテクスチャーの数と同数の前記第1ベタ塗りパターンからなる1つの第2のセットとをそれぞれセット毎に前記3次元モデルに貼り付けてレンダリングし、前記第1のセット群を各セット毎にレンダリングすることにより得られる各レンダリング済み画像の階調値と前記第2のセットをレンダリングすることにより得られるレンダリング済み画像の階調値とを前記第1のセット群の各セット毎に比較することにより、前記3次元モデルにテクスチャーが貼り付けられた領域であるテクスチャー領域を特定し、該特定したテクスチャー領域に対して前記ゲインを算出するものとすることもできる。こうすれば、テクスチャー領域をより容易に特定することができる。 Furthermore, in the image processing method of the present invention, a predetermined pattern in which different gradation values are set for each coordinate is pasted and rendered as a texture on a three-dimensional model, and a rendered image obtained as a bitmap image by the rendering is rendered. By analyzing, the correspondence between the coordinates of the rendered image and the coordinates of the predetermined pattern is set and stored together with the image data as image drawing information, and when the desired texture is displayed as an image, the stored The desired texture may be arranged and displayed in the rendered image based on image drawing information. By doing so, it is possible to display an image obtained by rendering the three-dimensional model by replacing a desired texture, and it is possible to reduce the processing burden as compared with the case where the three-dimensional model is rendered and displayed in real time. Here, the display of the image includes an image that is drawn in units of frames and displayed as a moving image. In this aspect of the image processing method of the present invention, the correspondence relationship may be derived by specifying the corresponding coordinates of the predetermined pattern from the gradation value of each coordinate of the rendered image. In this aspect of the image processing method of the present invention, the predetermined pattern is a plurality of patterns corresponding to the number of bits when coordinates are expressed in binary numbers, and gradation values corresponding to the values of bits corresponding to the respective coordinates. Can also be set. In this way, the correspondence can be set more accurately. In this case, the binary number may be a gray code (alternate binary number). In this way, since only 1-bit change always occurs when moving to an adjacent coordinate, it is possible to suppress erroneous data from being acquired due to an error in the gradation value of the image. In the image processing method of the present invention according to these aspects, in addition to the correspondence setting pattern for setting the correspondence as the predetermined pattern, the first solid pattern formed by solid painting with a minimum gradation value is further described. A bias value that is a gradation value of the first solid pattern in the rendered image is stored as the image drawing information, and is rendered based on the stored bias value. It is also possible to display the image after converting it into the gradation value of the rendered image by offsetting the gradation value. By doing this, it is possible to reflect the effect of rendering the three-dimensional model that does not depend on the original texture. In this case, the bias value of the texture area extracted from the bias value of each pixel as the image data is compressed by the lossless compression method, and blank pixels in the area after extraction of the texture area are complemented by a predetermined complement process. In addition, the bias value after the complement can be compressed by the JPEG compression method. Furthermore, in the image processing method of the present invention of these aspects, in addition to the correspondence setting pattern for setting the correspondence as the predetermined pattern, a first solid pattern that is further solid-coated with a minimum gradation value And the second solid pattern formed by applying a solid color with the maximum gradation value are pasted on the three-dimensional model and rendered, respectively, and the gradation value of the second solid pattern and the first solid pattern in the rendered image are rendered. A gain that is a deviation from the gradation value of the paint pattern is calculated and stored as the image drawing information, and the gradation value of the desired texture is converted into the gradation value of the rendered image based on the stored gain. It can also be displayed. In this way, it is possible to reflect the effect of the original texture gradation value among the effects of rendering the three-dimensional model. In this case, when a plurality of desired textures are arranged and displayed on the rendered image, the second solid coating is a set group provided by the number of the desired textures to be arranged. A first solid coating pattern obtained by subtracting the value 1 from the number of textures and the number of textures to be arranged, and the place where the second solid coating pattern is applied to the three-dimensional model is different for each set. A set group and one second set including the same number of the first solid coating patterns as the number of the desired textures to be arranged are pasted and rendered on the three-dimensional model for each set, and the first set is rendered. Render the tone values of each rendered image and the second set obtained by rendering a set group for each set. A texture region which is a region where a texture is pasted on the three-dimensional model by comparing the gradation value of the rendered image obtained by each of the sets of the first set group, The gain may be calculated for the identified texture region. In this way, the texture area can be specified more easily.
本発明の画像処理装置は、
テクスチャーを貼り付けてレンダリングする際に用いられる画像データを処理する画像処理装置であって、
前記画像データから前記テクスチャーが貼り付けられるテクスチャー領域を抜き出す前処理手段と、
該抜き出したテクスチャー領域を可逆圧縮方式により圧縮する第1の圧縮手段と、
前記画像データのうち前記テクスチャー領域を抜き出した後の該領域の空白画素を所定の補完処理により補完すると共に該補完した後の画像データをJPEG圧縮方式により圧縮する第2の圧縮手段と
を備えることを要旨とする。
The image processing apparatus of the present invention
An image processing apparatus that processes image data used when rendering by pasting a texture,
Preprocessing means for extracting a texture region to which the texture is pasted from the image data;
First compression means for compressing the extracted texture region by a reversible compression method;
A second compression unit that complements the blank pixels of the region after extracting the texture region of the image data by a predetermined complementing process and compresses the complemented image data by a JPEG compression method. Is the gist.
この本発明の画像処理装置では、画像データからテクスチャーが貼り付けられるテクスチャー領域を抜き出し、抜き出したテクスチャー領域を可逆圧縮方式により圧縮し、画像データのうちテクスチャー領域を抜き出した後の領域の空白画素を所定の補完処理により補完すると共に補完した後の画像データをJPEG圧縮方式により圧縮する。これにより、画像データ全体として圧縮率を高めながら画質の向上を図ることができる。 In the image processing apparatus of the present invention, a texture region to which a texture is pasted is extracted from image data, the extracted texture region is compressed by a lossless compression method, and blank pixels in the region after extracting the texture region from the image data are extracted. The image data is complemented by a predetermined complementing process and the complemented image data is compressed by the JPEG compression method. Thereby, it is possible to improve the image quality while increasing the compression rate of the entire image data.
次に、本発明の実施の形態を図面を用いて説明する。図1は、本発明の一実施形態である画像処理方法に用いるコンピューター20とビューワー40の構成の概略を示す構成図である。本実施形態のコンピューター20は、中央演算処理装置としてのCPUや処理プログラムを記憶するROM、データを一時的に記憶するRAM、グラフィックプロセッサー(GPU)、ハードディスク(HDD)、ディスプレイ22などからなる汎用のコンピューターとして構成されており、その機能ブロックとしては、3次元モデリングデータ(以下、3次元モデルという)やこれに貼り付けるテクスチャーデータ(以下、テクスチャーという)などを記憶する記憶部31と、3次元モデルに貼り付ける前処理用の特殊なテクスチャーを生成する特殊テクスチャー生成処理部32と、3次元モデルをレンダリングしてビットマップ画像を生成するレンダリング処理部34と、レンダリングにより得られたビットマップ画像としてのレンダリング済み画像を解析するレンダリング済み画像解析処理部36と、生成したレンダリング済み画像やレンダリング済み画像解析処理部36の解析により得られる各種データを圧縮する圧縮処理部38とを備える。 Next, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a configuration diagram showing an outline of configurations of a computer 20 and a viewer 40 used in an image processing method according to an embodiment of the present invention. The computer 20 of this embodiment is a general-purpose computer comprising a central processing unit (CPU), a ROM for storing processing programs, a RAM for temporarily storing data, a graphic processor (GPU), a hard disk (HDD), a display 22 and the like. It is configured as a computer, and as its functional blocks, a storage unit 31 for storing 3D modeling data (hereinafter referred to as a 3D model), texture data (hereinafter referred to as texture) to be pasted thereon, and the 3D model A special texture generation processing unit 32 that generates a special texture for preprocessing to be pasted on a rendering unit, a rendering processing unit 34 that generates a bitmap image by rendering a three-dimensional model, and a bitmap image obtained by rendering Render Includes a rendered image analysis processing section 36 for analyzing the grayed completed image, the compression processing unit 38 compresses the various kinds of data obtained by analyzing the rendered image and the rendered image analysis processing unit 36 which generated.
特殊テクスチャー生成処理部32は、レンダリング処理部34でレンダリングされる3次元モデルに貼り付ける所定パターンのテクスチャーを生成する処理部であり、具体的には、所定パターンとして、値0.0〜1.0の階調値範囲内で階調値が値1.0の白ベタのパターンや、階調値が値0.0の黒ベタのパターン,値0.0と値1.0の階調値が横方向に交互に現われる縦縞模様のパターン,値0.0と値1.0の階調値が縦方向に交互に現われる横縞模様のパターンを生成する。なお、これらの各パターンがもつ役割については後述する。 The special texture generation processing unit 32 is a processing unit that generates a texture of a predetermined pattern to be pasted on the three-dimensional model rendered by the rendering processing unit 34. Specifically, as the predetermined pattern, values 0.0 to 1.. A solid white pattern with a gradation value of 1.0 within a gradation value range of 0, a solid black pattern with a gradation value of 0.0, and a gradation value of 0.0 and 1.0 A vertical stripe pattern that alternately appears in the horizontal direction, and a horizontal stripe pattern that has gradation values of 0.0 and 1.0 appear alternately in the vertical direction. The role of each pattern will be described later.
レンダリング処理部34は、3Dレンダリング用のソフトウエアがコンピューター20にインストールされることにより機能する処理部であり、3次元モデルに特殊テクスチャー生成処理部32で生成されたテクスチャーを貼り付けてレンダリングすることにより所定のフレームレート(例えば、1秒間に30回や60回など)でフレーム単位にビットマップ画像を再生して動画を表示する。本実施形態では、光源からの光をたどりながらオブジェクト面の反射や光の屈折などを計算してレンダリングするレイトレーシング法を用いてレンダリング処理を行なうものとした。 The rendering processing unit 34 is a processing unit that functions when software for 3D rendering is installed in the computer 20. The rendering processing unit 34 performs rendering by pasting the texture generated by the special texture generation processing unit 32 on the three-dimensional model. Thus, a bitmap image is reproduced frame by frame at a predetermined frame rate (for example, 30 times or 60 times per second) to display a moving image. In the present embodiment, the rendering process is performed using a ray tracing method that calculates and renders reflection of an object surface, light refraction, and the like while tracing light from a light source.
レンダリング済み画像解析処理部36は、レンダリング処理部34により生成されたビットマップ画像(レンダリング済み画像)を解析することにより、所定パターンのテクスチャーに代えて写真などの所望の画像データを自由に差し替えてレンダリング済み画像をビューワー40側で表示できるようにするための画像描画情報を生成する。 The rendered image analysis processing unit 36 analyzes the bitmap image (rendered image) generated by the rendering processing unit 34 to freely replace desired image data such as a photograph instead of a predetermined pattern texture. Image drawing information for enabling the rendered image to be displayed on the viewer 40 side is generated.
圧縮処理部38は、レンダリング済み画像解析処理部36により解析に伴って生成された画像描画情報を圧縮するための処理部であり、本実施形態では、画質の劣化を抑制しながら全体の圧縮率を高めるために、複数種の圧縮方式を使い分けてデータを圧縮するものとした。圧縮方式の詳細については後述する。 The compression processing unit 38 is a processing unit for compressing the image drawing information generated along with the analysis by the rendered image analysis processing unit 36. In the present embodiment, the overall compression rate is suppressed while suppressing deterioration in image quality. In order to improve the data, the data is compressed by using different types of compression methods. Details of the compression method will be described later.
本実施形態のビューワー40は、コンピューター20のレンダリング処理部34で得られたレンダリング済み画像やレンダリング済み画像解析処理部36により解析されると共に圧縮処理部38により圧縮された画像描画情報などを記憶する記憶部41と、メモリーカードMCに記憶されている写真などの画像データの入力を司る入力処理部42と、入力処理部42により入力された画像データや記憶部41に記憶されているレンダリング済み画像,画像描画情報をデコード(展開)する展開処理部44と、レンダリング済み画像に入力した画像データをテクスチャーとして合成して描画する描画処理部46と、を備える。このビューワー40は、ユーザーからの指示によりメモリーカードMCに記憶されている複数の画像データを順次読み込むと共に読み込んだ画像データを画像描画情報を用いて3次元モデルのレンダリング済み画像に貼り付けて順次再生を行なうスライドショー表示を行なうことができるようになっている。 The viewer 40 according to the present embodiment stores a rendered image obtained by the rendering processing unit 34 of the computer 20, image rendering information analyzed by the rendered image analysis processing unit 36 and compressed by the compression processing unit 38. A storage unit 41, an input processing unit 42 that controls input of image data such as photographs stored in the memory card MC, image data input by the input processing unit 42, and rendered images stored in the storage unit 41 , A development processing unit 44 that decodes (decompresses) image drawing information, and a drawing processing unit 46 that combines and renders image data input to the rendered image as a texture. The viewer 40 sequentially reads a plurality of image data stored in the memory card MC according to an instruction from a user, and pastes the read image data on a rendered image of a three-dimensional model using image drawing information, and sequentially reproduces the image data. The slide show display can be performed.
次に、こうして構成された本実施形態のコンピューター20の特殊テクスチャー生成処理部32やレンダリング処理部34,レンダリング済み画像解析処理部36,圧縮処理部38の動作と、ビューワー40の展開処理部44や描画処理部46の動作について説明する。まず、特殊テクスチャー生成処理部32の処理について説明する。図2は、特殊テクスチャー生成処理の一例を示すフローチャートである。 Next, the operations of the special texture generation processing unit 32, the rendering processing unit 34, the rendered image analysis processing unit 36, and the compression processing unit 38 of the computer 20 of the present embodiment configured as described above, the decompression processing unit 44 of the viewer 40, The operation of the drawing processing unit 46 will be described. First, the processing of the special texture generation processing unit 32 will be described. FIG. 2 is a flowchart illustrating an example of the special texture generation process.
特殊テクスチャー生成処理では、まず、対象セット番号iを値1に初期化し(ステップS100)、対象セット番号iに対してRGBの色成分毎にn個の特殊テクスチャーを生成して(ステップS110)、対象セット番号iを値1だけインクリメントし(ステップS120)、対象セット番号iと値nとを比較して(ステップS130)、対象セット番号iが値n以下のときにはステップS110に戻って次の対象セット番号iに対してn個の特殊テクスチャーを生成する処理を繰り返し、対象セット番号iが値nを超えたときには次の処理に進む。ここで、対象セット番号iが値1から値nまでの特殊テクスチャーの生成は、次式(1)に示すように、1番からn番までの対象テクスチャー番号jを1番から値1ずつシフトしながら対象テクスチャー番号jと対象セット番号iと比較し、両者が一致する対象テクスチャー番号jに対しては最小値0.0(黒)〜最大値1.0(白)の階調値範囲で全座標(x,y)に値1.0の階調値を設定することにより白ベタの特殊テクスチャーを生成し、両者が一致しない対象テクスチャー番号jに対しては全座標(x,y)に値0.0の階調値を設定することにより黒ベタの特殊テクスチャーを生成することにより行なわれる。ここで、式(1)中の「c」は、画像データのRGB値の各色に対応する値を示し、「n」は1画面に配置するテクスチャーの数を示し、「b」はテクスチャーの座標を2進数で表わしたときのビット数を示し、「Tc,i,j(x,y)」は色成分c,対象セット番号i,対象テクスチャー番号jにおける特殊テクスチャーの座標(x,y)の階調値を示す(以下、同じ)。 In the special texture generation process, first, the target set number i is initialized to a value 1 (step S100), and n special textures are generated for each RGB color component for the target set number i (step S110). The target set number i is incremented by 1 (step S120), the target set number i is compared with the value n (step S130), and when the target set number i is less than or equal to the value n, the process returns to step S110 and the next target The process of generating n special textures for the set number i is repeated. When the target set number i exceeds the value n, the process proceeds to the next process. Here, the generation of the special texture with the target set number i from the value 1 to the value n shifts the target texture number j from the first to the nth by the value 1 from the first as shown in the following equation (1). While comparing the target texture number j and the target set number i, the target texture number j that matches the target texture number j is in the gradation value range from the minimum value 0.0 (black) to the maximum value 1.0 (white). A special white solid texture is generated by setting a gradation value of 1.0 to all coordinates (x, y), and the target texture number j that does not match is set to all coordinates (x, y). This is done by generating a solid black special texture by setting a gradation value of 0.0. Here, “c” in the formula (1) indicates a value corresponding to each color of the RGB values of the image data, “n” indicates the number of textures arranged on one screen, and “b” indicates the texture coordinates. Indicates the number of bits when expressed as a binary number, and “Tc, i, j (x, y)” indicates the coordinates (x, y) of the special texture in the color component c, the target set number i, and the target texture number j. Indicates a gradation value (hereinafter the same).
対象セット番号iが値1〜値nの特殊テクスチャーを生成すると、次に、対象セット番号iが値(n+1)の色成分毎のn個の特殊テクスチャーを生成し(ステップS140)、対象セット番号iを値1だけインクリメントする(ステップS150)。ここで、対象セット番号iが値(n+1)の特殊テクスチャーの生成は、次式(2)に示すように、1番からn番までのすべての対象テクスチャー番号jに対して全座標(x,y)に値0.0の階調値を設定することにより黒ベタの特殊テクスチャーを生成することにより行なわれる。 When the special texture having the target set number i having the value 1 to the value n is generated, n special textures for each color component having the target set number i having the value (n + 1) are generated (step S140). i is incremented by 1 (step S150). Here, the generation of the special texture having the target set number i of the value (n + 1) is performed with respect to all the target texture numbers j from 1 to n as shown in the following equation (2). This is done by generating a solid black special texture by setting a gradation value of 0.0 to y).
対象セット番号iが値(n+1)の特殊テクスチャーを生成すると、次に、対象セット番号iに対してテクスチャーの座標を交番2進数(グレイコード)表現としたときの第{i−(n+2)]ビットに対応する縦縞模様の色成分毎のn個の特殊テクスチャーを次式(3)により生成して(ステップS160)、対象セット番号iを値1だけインクリメントし(ステップS170)、対象セット番号iと値(n+b+1)とを比較し(ステップS180)、対象セット番号iが値(n+b+1)以下のときにはステップS160に戻って次の対象セット番号iに対してn個の特殊テクスチャーを生成する処理を繰り返し、対象セット番号iが値(n+b+1)を超えたときには次の処理に進む。ここで、式(3)中の「gray(a)」は数値aのグレイコード(交番2進数符号)表現であり、「and(a,b)」はaとbのビット毎の論理積を示す(以下、同じ)。(n+2)番から(n+b+1)番までの対象セット番号iは、それぞれテクスチャーの座標を2進数で表現したときに第0ビット(最上位ビット)から第(b−1)ビット(最下位ビット)までの各ビットに対応しており、対象セット番号iに対応するビットの値が値1のときには値1.0(白)の階調値を設定し、対応するビットの値が値0のときには値0.0(黒)の階調値を設定することにより縦縞模様の特殊テクスチャーが生成される。本実施形態では、テクスチャーの座標を交番2進数で表現しており、例えば、テクスチャー数nが値3で座標が値1〜8の3ビット(b=3)とすると、対象セット番号iが第0ビット(最上位ビット)を示す値5の特殊テクスチャーとしてはx座標が値1〜4については黒の階調値が設定され値5〜8については白の階調値が設定され、対象セット番号iが第1ビットを示す値6の特殊テクスチャーとしてはx座標が値1,2については黒の階調値が設定され3〜6については白の階調値が設定され値7,8については黒の階調値が設定され、対象セット番号iが第2ビット(最下位ビット)を示す値7の特殊テクスチャーとしてはx座標が値1については黒の階調値が設定され値2,3については白の階調値が設定され値4,5については黒の階調値が設定され値6,7については白の階調値が設定され値8については黒の階調値が設定されることになる。 When the special texture having the target set number i of the value (n + 1) is generated, the {i− (n + 2)] when the texture coordinates are expressed as an alternating binary number (gray code) with respect to the target set number i. N special textures for each color component of the vertical stripe pattern corresponding to the bit are generated by the following equation (3) (step S160), the target set number i is incremented by 1 (step S170), and the target set number i Is compared with the value (n + b + 1) (step S180), and when the target set number i is equal to or smaller than the value (n + b + 1), the process returns to step S160 to generate n special textures for the next target set number i. Repeatedly, when the target set number i exceeds the value (n + b + 1), the process proceeds to the next process. Here, “gray (a)” in Equation (3) is a gray code (alternate binary code) representation of the numerical value a, and “and (a, b)” is the logical product of a and b for each bit. Shown (same below). The target set numbers i from (n + 2) to (n + b + 1) are the 0th bit (most significant bit) to the (b-1) th bit (least significant bit) when the texture coordinates are expressed in binary numbers, respectively. The gradation value of 1.0 (white) is set when the value of the bit corresponding to the target set number i is 1, and the value of the corresponding bit is 0. A special texture having a vertical stripe pattern is generated by setting a gradation value of 0.0 (black). In this embodiment, the texture coordinates are expressed in alternating binary numbers. For example, if the texture number n is 3 and the coordinates are 3 bits (b = 3), the target set number i is the first number. As a special texture with a value of 5 indicating 0 bit (most significant bit), a black gradation value is set for an x coordinate value of 1 to 4, a white gradation value is set for a value of 5 to 8, and a target set is set. As for the special texture having the value 6 in which the number i indicates the first bit, the black coordinate value is set for the x coordinate values 1 and 2, the white tone value is set for the values 3 to 6, and the values 7 and 8 are set. Is a black gradation value, and the target set number i is a special texture with a value 7 indicating the second bit (least significant bit). For 3 the white tone value is set and for values 4 and 5 So that the black gradation value is set for the gradation value set value 8 white for black gradation value set value 6,7.
対象セット番号iが値(n+2)〜値(n+b+1)の特殊テクスチャーを生成すると、次に、対象セット番号iに対してテクスチャーのy座標を交番2進数表現としたときの第{i−(n+b+2)]ビットに対応する横縞模様の色成分毎のn個の特殊テクスチャーを次式(4)により生成して(ステップS185)、対象セット番号iを値1だけインクリメントし(ステップS190)、対象セット番号iと値(n+2b+1)とを比較し(ステップS195)、対象セット番号iが値(n+2b+1)以下のときにはステップS185に戻って次の対象セット番号iに対してn個の特殊テクスチャーを生成する処理を繰り返し、対象セット番号iが値(n+2b+1)を超えたときには、全ての特殊テクスチャーの生成が完了したとして、本ルーチンを終了する。(n+b+2)番から(n+2b+1)番までの対象セット番号iは、それぞれテクスチャーの座標を2進数で表現したときに第0ビット(最上位ビット)から第(b−1)ビット(最下位ビット)までの各ビットに対応しており、対象セット番号iに対応するビットの値が値1のときには値1.0(白)の階調値を設定し、対応するビットの値が値0のときには値0.0(黒)の階調値を設定することにより横縞模様の特殊テクスチャーが生成される。本実施形態では、テクスチャーの座標を交番2進数で表現しており、例えば、テクスチャー数nが値3でy座標が値1〜8の3ビット(b=3)とすると、対象セット番号iが第0ビット(最上位ビット)を示す値8の特殊テクスチャーとしてはy座標が値1〜4については黒の階調値が設定され値5〜8については白の階調値が設定され、対象セット番号iが第1ビットを示す値9の特殊テクスチャーとしてはy座標が値1,2については黒の階調値が設定され値3〜6については白の階調値が設定され値7,8については黒の階調値が設定され、対象セット番号iが第2ビット(最下位ビット)を示す値10の特殊テクスチャーとしてはy座標が値1については黒の階調値が設定され値2,3については白の階調値が設定され値4,5については黒の階調値が設定され値6,7については白の階調値が設定され値8については黒の階調値が設定されることになる。図3に、テクスチャー数nが値3で座標のビット数bが値3のときに生成される特殊テクスチャーの一覧を示す。 When the special texture having the target set number i of the value (n + 2) to the value (n + b + 1) is generated, the {i− (n + b + 2) when the y coordinate of the texture is expressed as an alternating binary number with respect to the target set number i. )] N special textures for each color component of the horizontal stripe pattern corresponding to the bit are generated by the following equation (4) (step S185), the target set number i is incremented by 1 (step S190), and the target set is set. The number i is compared with the value (n + 2b + 1) (step S195). When the target set number i is equal to or smaller than the value (n + 2b + 1), the process returns to step S185 to generate n special textures for the next target set number i. When the process is repeated and the target set number i exceeds the value (n + 2b + 1), the generation of all the special textures is completed. This routine is terminated. The target set numbers i from (n + b + 2) to (n + 2b + 1) are the 0th bit (most significant bit) to the (b-1) th bit (least significant bit) when the texture coordinates are expressed in binary numbers, respectively. The gradation value of 1.0 (white) is set when the value of the bit corresponding to the target set number i is 1, and the value of the corresponding bit is 0. A special texture with a horizontal stripe pattern is generated by setting a gradation value of 0.0 (black). In this embodiment, the texture coordinates are expressed by alternating binary numbers. For example, if the texture number n is 3 and the y coordinate is 3 bits (b = 3), the target set number i is As a special texture having a value of 8 indicating the 0th bit (most significant bit), a black gradation value is set for a y coordinate of 1 to 4, a white gradation value is set for a value of 5 to 8, and As a special texture having a set number i with a value 9 indicating the first bit, a black gradation value is set for values 1 and 2, and a white gradation value is set for values 3 to 6, and a value of 7, A black tone value is set for 8 and a special texture with a target set number i indicating the second bit (least significant bit) of value 10 is set to a y tone value of 1 and a black tone value is set. For 2 and 3, the white gradation value is set to values 4 and 5. There will be a black tone value is set for the gradation value set value 8 white for black gradation value set value 6,7 is. FIG. 3 shows a list of special textures generated when the number of textures n is 3 and the number of coordinate bits b is 3.
レンダリング処理部34は、セット毎に、対応するn個の特殊テクスチャーを3次元モデルに貼り付けてレンダリング処理を行なう。図4にレンダリング処理の様子を示す。本実施形態では、3次元モデルを動画としてレンダリングし、テクスチャー数nが値3でビット数bが値3としたから、合計10セット分のレンダリング処理が行なわれて10セット分の動画が生成されることになる。この動画は、フレーム1〜Tまでの各フレーム毎に生成されたビットマップ画像(レンダリング済み画像)により構成される。 For each set, the rendering processing unit 34 performs rendering processing by pasting the corresponding n special textures onto the three-dimensional model. FIG. 4 shows the rendering process. In this embodiment, since the three-dimensional model is rendered as a moving image, the number of textures n is 3 and the number of bits b is 3, the rendering process for a total of 10 sets is performed and 10 sets of moving images are generated. Will be. This moving image is composed of bitmap images (rendered images) generated for each frame from frames 1 to T.
次に、レンダリング処理部34により生成されたレンダリング済み画像を解析する処理について説明する。図5は、レンダリング済み画像解析処理部36により実行されるレンダリング済み画像解析処理の一例を示すフローチャートである。 Next, processing for analyzing a rendered image generated by the rendering processing unit 34 will be described. FIG. 5 is a flowchart illustrating an example of a rendered image analysis process executed by the rendered image analysis processing unit 36.
レンダリング済み画像解析処理では、まず、次式(5)に示すように各フレーム番号t(=1〜T)におけるレンダリング済み画像の座標(x,y)の変数It(x,y)を値0に初期化し(ステップS200)、対象フレームtにおけるセット番号1〜nのレンダリング済み画像中の白ベタ領域(座標)を特定して、この白ベタ領域の変数It(x,y)に対応するテクスチャー番号(=対象セット番号i)を設定する(ステップS210)。この処理は、次式(6)に示すように、対象セット番号iを1番からn番まで順次シフトしながら対象セット番号iのレンダリング済み画像の階調値(各色成分毎の階調値の総和)とセット番号(n+1)のレンダリング済み画像の階調値(各色成分毎の階調値の総和)とを比較することにより行なうことができる。ここで、式(5)中の「w」はレンダリング済み画像の幅方向のサイズを示し、「h」はレンダリング済み画像の高さ方向のサイズを示す。また、式(6)中の「Ac,i,t(x,y)」は色成分c,セット番号i(1〜n),フレーム番号tにおけるレンダリング済み画像の座標(x,y)の階調値を示す(以下、同じ)。 In the rendered image analysis process, first, as shown in the following equation (5), the variable It (x, y) of the coordinates (x, y) of the rendered image at each frame number t (= 1 to T) is set to the value 0. (Step S200), a white solid area (coordinates) in the rendered image of the set numbers 1 to n in the target frame t is specified, and the texture corresponding to the variable It (x, y) of this white solid area A number (= target set number i) is set (step S210). As shown in the following equation (6), this processing is performed by sequentially shifting the target set number i from No. 1 to n, and the gradation value of the rendered image of the target set number i (the gradation value for each color component). This can be done by comparing the sum of the tone values of the rendered image with the set number (n + 1) (the sum of the tone values for each color component). Here, “w” in equation (5) indicates the size in the width direction of the rendered image, and “h” indicates the size in the height direction of the rendered image. In addition, “Ac, i, t (x, y)” in the equation (6) is a rank of the coordinate (x, y) of the rendered image at the color component c, the set number i (1 to n), and the frame number t. Indicates the key value (hereinafter the same).
続いて、次式(7)によりセット番号(n+1)のレンダリング済み画像の階調値をバイアスBc,t(x,y)として設定すると共に(ステップS220)、変数It(x,y)が値0でないレンダリング済み画像の座標(x,y)、即ち白ベタ領域について次式(8)によりゲインGc, t(x,y)を計算する(ステップS230)。ここで、式(8)中の「Ac,It(x,y),t(x,y)」は色成分c,変数It(x,y)に格納されたセット番号i,フレーム番号tにおけるレンダリング済み画像の座標(x,y)の階調値を示す。図6に、バイアスBc,t(x,y)とゲインGc,t(x,y)との関係を示す。3次元モデルにテクスチャーを貼り付けてレンダリングする場合、図示するように、元のテクスチャーの階調値に依存しないオフセット分がバイアスBc,t(x,y)に相当し、元のテクスチャーの階調値の変化に対するレンダリング済み画像の階調値の変化の傾きがゲインGc,t(x,y)に相当する。 Subsequently, the gradation value of the rendered image with the set number (n + 1) is set as the bias Bc, t (x, y) by the following equation (7) (step S220), and the variable It (x, y) is a value. The gain Gc, t (x, y) is calculated by the following equation (8) for the coordinates (x, y) of the rendered image that is not 0, that is, the white solid region (step S230). Here, “Ac, It (x, y), t (x, y)” in the equation (8) is the color component c and the set number i and the frame number t stored in the variable It (x, y). Indicates the gradation value of the coordinates (x, y) of the rendered image. FIG. 6 shows the relationship between the bias Bc, t (x, y) and the gain Gc, t (x, y). When rendering with a texture attached to a 3D model, as shown in the figure, the offset that does not depend on the gradation value of the original texture corresponds to the bias Bc, t (x, y), and the gradation of the original texture The gradient of the change in the gradation value of the rendered image with respect to the change in value corresponds to the gain Gc, t (x, y).
そして、次式(9)によりテクスチャーのグレイコード表現の座標(X't(x,y),Y't(x,y))を値0に初期化し(ステップS240)、セット番号(n+2)〜(n+2b+1)のレンダリング済み画像の座標(x,y)とテクスチャーの座標(X't(x,y),Y't(x,y))との対応関係を設定する(ステップS250)。ここで、座標の対応関係は、次式(10)により行なわれ、具体的には、セット番号iを1番からn番まで順次シフトしながらセット番号(i+n+1)のレンダリング済み画像の階調値Ac,i+n+1,t(x,y)からバイアスBc,t(x,y)を減じたもの(各色成分毎の総和)がセット番号iのレンダリング済み画像のゲインGc,t(x,y)を値2で割ったもの(各色成分毎の総和)よりも大きいか否か即ちセット番号(i+n+1)における白と黒の縦縞模様のパターンのうち座標(x,y)が白か否かを判定し白のときには交番2進数表現の座標X't(x,y)の対応する第(i−1)ビットの値に値1を設定し、セット番号iを1番からn番まで順次シフトしながらセット番号(i+b+n+1)のレンダリング済み画像の階調値Ac,i+b+n+1,i(x,y)からバイアスBc,t(x,y)を減じたもの(各色成分毎の総和)がセット番号iのレンダリング済み画像のゲインGc,t(x,y)を値2で割ったもの(各色成分毎の総和)よりも大きいか否か即ちセット番号(i+b+n+1)における白と黒の横縞模様のパターンのうち座標(x,y)が白か否かを判定し白のときには座標Y't(x,y)の対応する第(i−1)ビットの値を値1に設定することにより行なわれる。ここで、式(10)中の「or(a,b)」はaとbのビット毎の論理和を示す。 Then, the coordinates (X't (x, y), Y't (x, y)) of the texture gray code expression are initialized to the value 0 by the following equation (9) (step S240), and the set number (n + 2) Correspondences between the coordinates (x, y) of the rendered image (n + 2b + 1) and the coordinates (X′t (x, y), Y′t (x, y)) of the texture are set (step S250). Here, the coordinate correspondence is performed by the following equation (10). Specifically, the gradation value of the rendered image of the set number (i + n + 1) while sequentially shifting the set number i from 1 to n. Ac, i + n + 1, t (x, y) minus bias Bc, t (x, y) (sum of each color component) is the gain Gc, t (x , y) greater than 2 divided by the value 2 (total for each color component), that is, whether the coordinates (x, y) of the white and black vertical stripe patterns in the set number (i + n + 1) are white If it is white, the value (1) is set to the value of the corresponding (i−1) -th bit of the coordinate X′t (x, y) in the alternating binary number expression, and the set number i is set from 1 to n Subtracting the bias Bc, t (x, y) from the gradation value Ac, i + b + n + 1, i (x, y) of the rendered image of the set number (i + b + n + 1) while sequentially shifting (each color Whether or not (sum per minute) is greater than the gain Gc, t (x, y) of the rendered image with set number i divided by the value 2 (sum for each color component), ie at set number (i + b + n + 1) It is determined whether or not the coordinate (x, y) is white in the white and black horizontal stripe pattern, and if it is white, the value of the corresponding (i−1) -th bit of the coordinate Y′t (x, y) is the value. This is done by setting it to 1. Here, “or (a, b)” in the expression (10) indicates a logical sum of bits a and b.
座標の対応関係を設定すると、グレイコード表現のテクスチャーの座標(X't(x,y),Y't(x,y))を次式(11)を用いて復号化して復号化後座標(Xt(x,y),Yt(x,y))を算出し(ステップS260)、値1〜Tまでの全フレームについて処理が完了したか否かを判定し(ステップS270)、全フレームについて処理が完了していないときには次のフレームを対象フレームtに設定してステップS210に戻って処理を繰り返し、全フレームについて処理が完了したときに本処理を終了する。ここで、式(11)中の「gray-1(a)」はグレイコードaを復号化した値を示し、「Xt(x,y)」はフレーム番号tのレンダリング済み画像の座標(x,y)に対応するテクスチャーのx座標を示し、「Yt(x,y)」はフレーム番号tのレンダリング済み画像の座標(x,y)に対応するテクスチャーのy座標を示す。なお、本実施形態では、座標(X't(x,y),Y't(x,y))の原点を(1,1)としているから、グレイコードを復号化した値に値1を加算している。画像描画情報としては、変数It(x,y)とバイアスBc,t(x,y)とゲインGc,t(x,y)と座標(Xt(x,y),Yt(x,y))とが含まれる。 When the correspondence relationship of coordinates is set, the coordinates (X't (x, y), Y't (x, y)) of the texture of the gray code expression are decoded using the following equation (11) to obtain the decoded coordinates (Xt (x, y), Yt (x, y)) is calculated (step S260), and it is determined whether or not the processing has been completed for all the frames having values 1 to T (step S270). When the process is not completed, the next frame is set as the target frame t, and the process returns to step S210 to repeat the process. When the process is completed for all frames, the process is terminated. Here, “gray-1 (a)” in Expression (11) indicates a value obtained by decoding the Gray code a, and “Xt (x, y)” indicates the coordinates (x, y) represents the x coordinate of the texture, and “Yt (x, y)” represents the y coordinate of the texture corresponding to the coordinate (x, y) of the rendered image of frame number t. In this embodiment, since the origin of the coordinates (X′t (x, y), Y′t (x, y)) is (1,1), the value 1 is set to the value obtained by decoding the Gray code. It is adding. Image rendering information includes variable It (x, y), bias Bc, t (x, y), gain Gc, t (x, y), and coordinates (Xt (x, y), Yt (x, y)) And are included.
次に、レンダリング済み画像解析処理部36により解析されて得られた画像描画情報を圧縮する処理、特にバイアスBc,t(x,y)を圧縮する処理について説明する。図7は、圧縮処理部38により実行される圧縮処理の一例を示すフローチャートである。 Next, processing for compressing image drawing information obtained by analysis by the rendered image analysis processing unit 36, particularly processing for compressing the bias Bc, t (x, y) will be described. FIG. 7 is a flowchart illustrating an example of the compression process executed by the compression processing unit 38.
圧縮処理では、まず、全領域のバイアスBc,t(x,y)のうちテクスチャー領域を抜き出してテクスチャー領域用バイアスEc,t(x,y)を設定する(ステップS300)。この処理は、変数It(x,y)が値0でない座標(x,y)についてはテクスチャー領域用バイアスEc,t(x,y)にバイアスBc,t(x,y)を設定し、変数It(x,y)が値0の座標(x,y)についてはテクスチャー領域用バイアスEc,t(x,y)に値0を設定することにより行なわれる。続いて、非テクスチャー領域のバイアスBc,t(x,y)を抜き出して非テクスチャー領域用バイアスFc,t(x,y)を設定すると共に(ステップS310)、設定した非テクスチャー領域用バイアスFc,t(x,y)のうちテクスチャー領域内の空白画素を補完し(ステップS320)、テクスチャー領域用バイアスEc,t(x,y)については可逆圧縮方式の一つであるデフレート圧縮を行ない(ステップS330)、非テクスチャー領域についてはJPEG圧縮を行ない(ステップS340)、圧縮データを保存して(ステップS350)、本処理を終了する。本実施形態では、画像描画情報としてのIt(x,y),Gc,t(x,y),Xt(x,y),Yt(x,y)についてもデフレート圧縮などの可逆圧縮により圧縮するものとした。 In the compression process, first, the texture area is extracted from the bias Bc, t (x, y) of the entire area, and the texture area bias Ec, t (x, y) is set (step S300). This process sets the texture region bias Ec, t (x, y) to the bias Bc, t (x, y) for the coordinates (x, y) where the variable It (x, y) is not 0, and the variable The coordinate (x, y) where It (x, y) is 0 is performed by setting the value 0 to the texture region bias Ec, t (x, y). Subsequently, the non-texture area bias Bc, t (x, y) is extracted to set the non-texture area bias Fc, t (x, y) (step S310), and the set non-texture area bias Fc, Blank pixels in the texture area are complemented from t (x, y) (step S320), and deflate compression, which is one of the lossless compression methods, is performed on the texture area bias Ec, t (x, y) (step S320). In step S330, JPEG compression is performed for the non-textured region (step S340), the compressed data is saved (step S350), and the process ends. In this embodiment, It (x, y), Gc, t (x, y), Xt (x, y), and Yt (x, y) as image drawing information are also compressed by lossless compression such as deflate compression. It was supposed to be.
図8は、図7のステップS320により空白画素を補完する補完処理の一例を示すフローチャートである。この補完処理では、まず、JPEG処理の基本単位であるMCU(Minimum Coded Unit)のうち各列(y座標)毎に幅方向(x座標方向)の順に対象MCUを設定し(ステップS400)、設定した対象MCU内に空白画素があるか否かを判定する(ステップS410)。対象MCU内に空白画素がないときには空白画素の補完の必要がないから次のMCUがあるか否かを判定し(ステップS450)、次のMCUがあるときにはステップS400に戻ってこれを対象MCUに設定して処理を繰り返す。一方、対象MCU内に空白画素があるときには、対象MCU内の一部が空白画素であるか否かを判定し(ステップS420)、対象MCU内の一部が空白画素のときには空白画素を隣接画素の平均階調値で埋める処理を行ない(ステップS430)、対象MCU内の全部が空白画素のときには左側に隣接するMCUの平均階調値で埋める処理を行なって(ステップS440)、次の処理に進む。ステップS450で次のMCUがあると判定されると、ステップS400に戻って次のMCUを対象MCUに設定して処理を繰り返し、次のMCUがないと判定されると、これで本処理を終了する。図9に、空白画素の補完の様子を示す。この処理は、テクスチャー領域と非テクスチャー領域の境界付近では、階調値が徐々に変化するようにし、境界から離れた部分では境界付近のMCUの平均階調値で埋めるものとなる。こうして空白画素を補完した非テクスチャー領域用バイアスFc,t(x,y)をJPEG圧縮することにより、JPEG圧縮の際の圧縮効率を高めることができる。 FIG. 8 is a flowchart illustrating an example of a complement process for complementing blank pixels in step S320 of FIG. In this complementing process, first, the target MCU is set in the order of the width direction (x coordinate direction) for each column (y coordinate) in the MCU (Minimum Coded Unit) which is the basic unit of JPEG processing (step S400). It is determined whether or not there is a blank pixel in the target MCU (step S410). When there is no blank pixel in the target MCU, it is not necessary to complement the blank pixel, so it is determined whether or not there is a next MCU (step S450). Set and repeat the process. On the other hand, if there is a blank pixel in the target MCU, it is determined whether or not a part in the target MCU is a blank pixel (step S420). If a part in the target MCU is a blank pixel, the blank pixel is determined as an adjacent pixel. Is filled with the average gradation value of the adjacent MCU (step S430). When all of the target MCUs are blank pixels, a process of filling with the average gradation value of the MCU adjacent to the left side is performed (step S440). move on. If it is determined in step S450 that there is a next MCU, the process returns to step S400, the next MCU is set as the target MCU, and the process is repeated. If it is determined that there is no next MCU, this process ends. To do. FIG. 9 shows how blank pixels are complemented. This process is such that the gradation value gradually changes near the boundary between the texture area and the non-texture area, and is filled with the average gradation value of the MCU near the boundary at a part away from the boundary. By compressing the non-texture region bias Fc, t (x, y) supplemented with blank pixels in this way by JPEG compression, the compression efficiency during JPEG compression can be increased.
コンピュータ20の圧縮処理部38により圧縮された画像描画情報(変数It(x,y)やバイアスEc,(x,y),Fc,t(x,y),ゲインGc,t(x,y),座標(Xt(x,y),Yt(x,y))はビューワー40の記憶部41に記憶され、ビューワー40の展開処理部44によりデフレート圧縮した変数It(x,y)やバイアスEc,t(x,y),ゲインGc,t(x,y),座標(Xt(x,y),Yt(x,y))についてはデフレート解凍処理によりJPEG圧縮したバイアスFc,t(x,y)についてはJPEG解凍処理によりそれぞれ展開した上で描画処理部46による描画処理に用いられる。描画処理部46では、メモリーカードMCに記憶されている写真などの複数の画像データを差し替え用テクスチャーとして読み込むと共に次式(12)を用いてレンダリング済み画像に合成して順次描画することにより、テクスチャーを差し替えながら3次元モデルのレンダリング済み画像を表示するスライドショー再生を行なうことができる。ここで、式(12)中の「Uc,i(x,y)」は色成分c,テクスチャー番号iにおける差し替え用テクスチャーの座標(x,y)の階調値(0.0〜1.0)を示し、「Pc,t(x,y)」は色成分c,フレーム番号tにおける表示画像(レンダリング済み画像)の座標(x,y)の階調値(0.0〜1.0)を示す。式(12)に示すように、表示画像の階調値Pc,t(x,y)の設定は、変数It(x,y)が値0でないテクスチャー配置領域に対しては表示画像の座標(x,y)に対応する差し替え用テクスチャーの座標(Xt(x,y),Yt(x,y))の階調値にゲインGc,t(x,y)を乗じてバイアスEc,t(x,y)を加えたものを設定し、変数It(x,y)が値0であるテクスチャー配置領域以外の領域に対してはバイアスFc,t(x,y)を設定することにより行なわれる。図10にテクスチャー番号が1〜3の3つの差し替え用テクスチャーを示し、図11にレンダリング済み画像に図10の差し替え用テクスチャーを配置して描画する様子を示す。 Image drawing information (variable It (x, y), bias Ec, (x, y), Fc, t (x, y), gain Gc, t (x, y)) compressed by the compression processing unit 38 of the computer 20 , Coordinates (Xt (x, y), Yt (x, y)) are stored in the storage unit 41 of the viewer 40, and the variable It (x, y) and the bias Ec, For t (x, y), gain Gc, t (x, y), and coordinates (Xt (x, y), Yt (x, y)), the bias Fc, t (x, y) compressed by JPEG by deflate decompression processing ) Is developed by JPEG decompression processing and used for drawing processing by the drawing processing unit 46. The drawing processing unit 46 reads a plurality of image data such as photographs stored in the memory card MC as replacement textures. In addition, the texture can be replaced by combining the rendered image using the following equation (12) and drawing sequentially. Slide show playback that displays rendered images of the three-dimensional model, where “Uc, i (x, y)” in equation (12) is the texture for replacement in the color component c and texture number i. Represents the gradation value (0.0 to 1.0) of the coordinates (x, y) of the image, and “Pc, t (x, y)” represents the display image (rendered image) in the color component c and frame number t. Indicates the gradation value (0.0 to 1.0) of the coordinates (x, y) As shown in the equation (12), the setting of the gradation value Pc, t (x, y) of the display image is a variable. For texture placement areas where It (x, y) is not 0, the replacement texture coordinates (Xt (x, y), Yt (x, y)) corresponding to the display image coordinates (x, y) Set the gradation value multiplied by the gain Gc, t (x, y) and add the bias Ec, t (x, y), and set the variable It (x, y) to a value other than the texture placement area Set bias Fc, t (x, y) for the region. Is carried out by. Texture number in FIG. 10 shows three for replacement texture 1-3 illustrates how to draw by placing a replacement for texture 10 in the rendered image in FIG. 11.
以上説明した実施例の画像処理方法によれば、3次元モデルに特殊テクスチャーを貼り付けてレンダリングすると共にレンダリング済み画像を解析することにより得られる画像描画情報の一つとしてのバイアスBc,t(x,y)に対してテクスチャー領域を抜き出してテクスチャー領域用バイアスEc,t(x,y)を設定すると共に空白画素を領域境界付近で階調値が徐々に変化するよう補完した上で非テクスチャー領域用バイアスFc,t(x,y)を設定し、テクスチャー領域用バイアスEc,t(x,y)についてはデフレート圧縮処理により圧縮し、非テクスチャー領域用バイアスFc,t(x,y)についてはJPEG圧縮により圧縮するから、全体の画質の劣化を抑制しながら高い圧縮率によりデータを圧縮することができる。また、コンピューター20側では、座標(x,y)を2進数表現したときの各ビットの値に対応するx座標用の縦縞模様のパターンとy座標用の横縞模様のパターンとをテクスチャーとして3次元モデルに貼り付けてレンダリングし、レンダリングによりビットマップ画像として得られたレンダリング済み画像を解析することによりレンダリング済み画像の座標(x,y)とテクスチャーの座標(Xt(x,y),Yt(x,y))との対応関係を設定して画像描画情報として保存し、ビューワー40側でレンダリング済み画像を用いて画像を表示するときには、予め記憶した画像描画情報によりテクスチャーの座標(Xt(x,y),Yt(x,y))の階調値に基づいて表示画像の座標(x,y)に描画するから、3次元モデルのレンダリング済み画像をテクスチャーを自由に差し替えて再生することができると共にリアルタイムで3次元モデルをレンダリングして表示するものに比して処理負担を少なくすることができる。しかも、ゲインGc,t(x,y)やバイアスBc,t(x,y)を用いてテクスチャーの階調値を変換して表示画像の階調値を設定するから、3次元モデルをレンダリングしたときの屈折光や鏡面反射,影などの影響も反映させることができる。さらに、座標の対応関係を特定するための特殊テクスチャーとして交番2進数に対応する縦縞模様のパターンと横縞模様のパターンとを形成するから、隣接する座標に移行する際には常に1ビットの変化となり、画像の階調値の誤差に起因して誤ったデータが取得されてしまうのを抑制することができる。 According to the image processing method of the embodiment described above, bias Bc, t (x as one of image drawing information obtained by pasting and rendering a special texture on a three-dimensional model and analyzing the rendered image , y), extract the texture area, set the texture area bias Ec, t (x, y), and complement the blank pixels so that the gradation value gradually changes near the area boundary, then the non-texture area Bias Fc, t (x, y) for texture, bias Ec, t (x, y) for texture area is compressed by deflate compression, and bias Fc, t (x, y) for non-texture area Since compression is performed by JPEG compression, data can be compressed at a high compression rate while suppressing deterioration of the overall image quality. On the computer 20 side, a vertical stripe pattern for x coordinates and a horizontal stripe pattern for y coordinates corresponding to the value of each bit when coordinates (x, y) are expressed in binary are used as a texture in three dimensions. Rendering by pasting to the model and analyzing the rendered image obtained as a bitmap image by rendering, the coordinates (x, y) of the rendered image and the coordinates of the texture (Xt (x, y), Yt (x , y)) are set and stored as image drawing information, and when the rendered image is displayed on the viewer 40 side, the coordinates of the texture (Xt (x, Since rendering is performed at the coordinates (x, y) of the display image based on the gradation values of y), Yt (x, y)), the rendered image of the three-dimensional model can be freely replaced with the texture and played. In addition, the processing load can be reduced as compared with a case where a three-dimensional model is rendered and displayed in real time. In addition, since the tone value of the texture is converted by using the gain Gc, t (x, y) and the bias Bc, t (x, y) and the tone value of the display image is set, the three-dimensional model is rendered. It is also possible to reflect the effects of refracted light, specular reflection, and shadows. Furthermore, since a vertical striped pattern and a horizontal striped pattern corresponding to alternating binary numbers are formed as a special texture for specifying the correspondence of coordinates, a change of 1 bit always occurs when moving to adjacent coordinates. Therefore, it is possible to suppress erroneous data from being acquired due to an error in the gradation value of the image.
本実施形態では、補完処理として、対象MCU内の一部が空白画素のときには空白画素を隣接画素の平均階調値で埋め、対象MCU内の全部が空白画素のときには左側に隣接するMCUの平均階調値で埋めるものとしたが、これに限られず、領域境界付近で階調値が徐々に変化するよう補完すればよいから、例えば、単に隣接画素の平均階調値で順次埋めていくものとしてもよい。 In the present embodiment, as a complementary process, when a part of the target MCU is a blank pixel, the blank pixel is filled with the average gradation value of the adjacent pixel, and when all of the target MCU is a blank pixel, the average of the MCUs adjacent to the left side is averaged. However, the present invention is not limited to this, and it is only necessary to complement the gradation value so that it gradually changes in the vicinity of the region boundary. It is good.
本実施形態では、テクスチャー領域用バイアスEc,t(x,y)についてデフレート圧縮により圧縮するものとしたが、デフレート圧縮以外の他の如何なる可逆圧縮処理により圧縮するものとしてもよいし、無圧縮とするものとしてもよい。 In the present embodiment, the texture region bias Ec, t (x, y) is compressed by deflate compression, but may be compressed by any lossless compression process other than deflate compression, It is good also as what to do.
本実施形態では、バイアスBc,t(x,y)からテクスチャー領域用バイアスEc,t(x,y)と非テクスチャー領域用バイアスFc,t(x,y)とを設定してそれぞれ異なる圧縮方式により圧縮するものとしたが、3次元モデルにテクスチャーを貼り付けてレンダリングする際に用いるデータであれば、バイアスBc,t(x,y)以外の他のデータに適用するものとしてもよい。 In the present embodiment, the texture region bias Ec, t (x, y) and the non-texture region bias Fc, t (x, y) are set from the bias Bc, t (x, y), and the compression methods are different from each other. However, the data may be applied to data other than the bias Bc, t (x, y) as long as the data is used when rendering with the texture attached to the three-dimensional model.
本実施形態では、座標(x,y)を2進数表現したときの各ビットの値に対応するx座標用の縦縞模様のパターンとy座標用の横縞模様のパターンとをテクスチャーとして用いて3次元モデルに貼り付けてレンダリングすると共にレンダリング結果を解析することにより画像描画情報を生成するものとしたが、用いるパターンはこれに限られず、x座標方向(横方向)に濃淡(階調値)が徐々に変化するパターンとy座標方向(縦方向)に濃淡が徐々に変換するパターンとを用いるものとしてもよい。この場合、前述した式(3)により得られるセット番号(n+2)〜(n+b+1)の縦縞模様のパターンに代えて次式(13)により得られるセット番号(n+2)の1つのパターンを用いると共に式(4)により得られるセット番号(n+b+2)〜(n+2b+1)の横縞模様のパターンに代えて次式(13)により得られるセット番号(n+3)の1つのパターンを用いるものとすればよい。 In the present embodiment, a three-dimensional pattern is obtained by using a vertical stripe pattern for x coordinates and a horizontal stripe pattern for y coordinates corresponding to the value of each bit when coordinates (x, y) are expressed in binary notation as a texture. Image rendering information is generated by pasting and rendering the model and analyzing the rendering result. However, the pattern used is not limited to this, and the gradation (gradation value) gradually increases in the x-coordinate direction (lateral direction). It is also possible to use a pattern that changes to a pattern and a pattern in which shading gradually changes in the y-coordinate direction (vertical direction). In this case, a single pattern of the set number (n + 2) obtained by the following equation (13) is used instead of the vertical stripe pattern of the set numbers (n + 2) to (n + b + 1) obtained by the equation (3) described above and the equation Instead of the horizontal stripe pattern of the set numbers (n + b + 2) to (n + 2b + 1) obtained by (4), one pattern of the set number (n + 3) obtained by the following equation (13) may be used.
式(12)のパターンと式(13)のパターンとを用いる場合、座標の対応関係の設定は、次式(15)により求めることができる。図12に特殊テクスチャーの一例を示し、図13に図12の特殊テクスチャーを3次元モデルに貼り付けてレンダリングする様子を示す。これにより、生成すべき特殊テクスチャーの数を減らすことができる。 When the pattern of Expression (12) and the pattern of Expression (13) are used, the setting of the coordinate correspondence can be obtained by the following Expression (15). FIG. 12 shows an example of the special texture, and FIG. 13 shows a state in which the special texture of FIG. 12 is pasted on the three-dimensional model and rendered. Thereby, the number of special textures to be generated can be reduced.
本実施形態では、対象セット番号iが値(n+2)〜値(n+b+1)の縦縞模様パターンの特殊テクスチャーを座標を交番2進数表現したときに各ビットの値に対応するものとすると共に対象セット番号iが値(n+b+2)〜値(n+2b+1)の横縞模様パターンの特殊テクスチャーを座標を交番2進数表現したときの各ビットの値に対応するものとしたが、これらのパターンを、座標を一般の2進数表現したときに各ビットの値に対応するものとして生成するものとしてもよい。この場合の特殊テクスチャーの一例を図14に示す。 In the present embodiment, the special texture of the vertical stripe pattern whose target set number i is a value (n + 2) to a value (n + b + 1) corresponds to the value of each bit when the coordinates are expressed in alternating binary numbers, and the target set number The special texture of the horizontal stripe pattern with i being the value (n + b + 2) to the value (n + 2b + 1) is assumed to correspond to the value of each bit when the coordinates are expressed in an alternating binary number. It may be generated as a value corresponding to the value of each bit when expressed in decimal. An example of the special texture in this case is shown in FIG.
本実施形態では、ビューワー40により画像を再生するものとしたが、画像を再生できる機器であれば、液晶画面付きの携帯電話やプリンターなど如何なる機器を用いるものとしても構わない。 In the present embodiment, an image is reproduced by the viewer 40, but any device such as a mobile phone with a liquid crystal screen or a printer may be used as long as the device can reproduce an image.
なお、本発明は上述した実施形態に何ら限定されることはなく、本発明の技術的範囲に属する限り種々の態様で実施し得ることはいうまでもない。 It should be noted that the present invention is not limited to the above-described embodiment, and it goes without saying that the present invention can be implemented in various modes as long as it belongs to the technical scope of the present invention.
20 コンピューター、22 ディスプレイ、31 記憶部、32 特殊テクスチャー生成処理部、34 レンダリング処理部、36 レンダリング済み画像解析処理部、38 圧縮処理部、40 ビューワー、41 記憶部、42 入力処理部、44 展開処理部、46 描画処理部、MC メモリーカード。 20 computers, 22 displays, 31 storage units, 32 special texture generation processing units, 34 rendering processing units, 36 rendered image analysis processing units, 38 compression processing units, 40 viewers, 41 storage units, 42 input processing units, 44 decompression processings Part, 46 drawing processing part, MC memory card.
Claims (13)
前記画像データから前記テクスチャーが貼り付けられるテクスチャー領域を抜き出し、
該抜き出したテクスチャー領域を可逆圧縮方式により圧縮し、前記画像データのうち前記テクスチャー領域を抜き出した後の該領域の空白画素を該領域の境界で徐々に画素値が変化するよう所定の補完処理により補完すると共に該補完した後の画像データをJPEG圧縮方式により圧縮する
ことを特徴とする画像処理方法。 An image processing method for processing image data used when rendering by pasting a texture,
Extracting the texture area where the texture is pasted from the image data,
The extracted texture area is compressed by a reversible compression method, and a blank pixel in the area after extracting the texture area in the image data is subjected to a predetermined complementing process so that the pixel value gradually changes at the boundary of the area. An image processing method comprising: complementing and compressing the complemented image data by a JPEG compression method.
前記所定の補完処理は、前記空白領域を隣接画素の平均画素値で埋めることにより補完する処理である
画像処理方法。 The image processing method according to claim 1,
The predetermined complementing process is an image processing method in which the blank area is complemented by filling an average pixel value of adjacent pixels.
前記所定の補完処理は、前記画像データを所定サイズの複数の単位ブロックにより構成して、該複数の単位ブロックのうち前記非テクスチャー領域の一部が含まれるブロックに対しては前記空白領域を隣接画素の平均画素値で埋めることにより補完し、前記非テクスチャー領域が含まれないブロックに対しては前記空白画素を隣接ブロック内の各画素の平均画素値で埋めることにより補完する処理である
画像処理方法。 The image processing method according to claim 2,
In the predetermined complement processing, the image data is configured by a plurality of unit blocks of a predetermined size, and the blank area is adjacent to a block including a part of the non-texture area among the plurality of unit blocks. Image processing is a process of complementing by filling with an average pixel value of pixels, and for a block that does not include the non-textured region, complementing by filling the blank pixels with an average pixel value of each pixel in an adjacent block Method.
座標毎に異なる階調値が設定された所定パターンをテクスチャーとして3次元モデルに貼り付けてレンダリングし、
該レンダリングによりビットマップ画像として得られたレンダリング済み画像を解析することにより該レンダリング済み画像の座標と前記所定パターンの座標との対応関係を設定して前記画像データと共に画像描画情報として保存し、
所望のテクスチャーを画像として表示する際には、前記保存した画像描画情報に基づいて前記レンダリング済み画像中に前記所望のテクスチャーを配置して表示する
画像処理方法。 The image processing method according to any one of claims 1 to 3,
Render by pasting a predetermined pattern with different gradation values for each coordinate as a texture to a 3D model,
By analyzing the rendered image obtained as a bitmap image by the rendering, the correspondence between the coordinates of the rendered image and the coordinates of the predetermined pattern is set and stored as image drawing information together with the image data,
An image processing method, wherein when displaying a desired texture as an image, the desired texture is arranged and displayed in the rendered image based on the stored image drawing information.
前記所定パターンとして前記対応関係を設定するための対応関係設定用パターンに加えてさらに最小階調値でベタ塗りしてなる第1ベタ塗りパターンを前記3次元モデルに貼り付けてレンダリングし、
前記レンダリング済み画像における前記第1ベタ塗りパターンの階調値であるバイアス値を前記画像描画情報として保存し、
前記保存したバイアス値に基づいて前記所望のテクスチャーの階調値をオフセットすることにより前記レンダリング済み画像の階調値に変換して表示する
画像処理方法。 An image processing method according to any one of claims 4 to 7,
In addition to the correspondence setting pattern for setting the correspondence as the predetermined pattern, a first solid pattern that is further solid-coated with a minimum gradation value is pasted on the three-dimensional model and rendered,
A bias value that is a gradation value of the first solid pattern in the rendered image is stored as the image drawing information;
An image processing method for converting and displaying the gradation value of the rendered image by offsetting the gradation value of the desired texture based on the stored bias value.
前記所定パターンとして前記対応関係を設定するための対応関係設定用パターンに加えてさらに最小階調値でベタ塗りしてなる第1ベタ塗りパターンと最大階調値でベタ塗りしてなる第2ベタ塗りパターンとを前記3次元モデルに貼り付けてそれぞれレンダリングし、
前記レンダリング済み画像における前記第2ベタ塗りパターンの階調値と前記第1ベタ塗りパターンの階調値との偏差であるゲインを算出して前記画像描画情報として保存し、
前記保存したゲインに基づいて前記所望のテクスチャーの階調値を前記レンダリング済み画像の階調値に変換して表示する
画像処理方法。 An image processing method according to any one of claims 4 to 9,
In addition to the correspondence setting pattern for setting the correspondence as the predetermined pattern, a first solid pattern that is solid-coated with a minimum gradation value and a second solid that is solid-coated with a maximum gradation value A paint pattern is pasted on the 3D model and rendered.
Calculating a gain that is a deviation between the gradation value of the second solid pattern and the gradation value of the first solid pattern in the rendered image, and storing the gain as the image drawing information;
An image processing method for converting a gradation value of the desired texture into a gradation value of the rendered image based on the stored gain and displaying the converted gradation value.
前記レンダリング済み画像に複数の所望のテクスチャーを配置して表示する場合には、前記配置する所望のテクスチャーの数だけ設けられたセット群であって各セットが1つの前記第2ベタ塗りパターンと前記配置するテクスチャーの数から値1を減じた数の前記第1ベタ塗りパターンとからなると共に各セット毎に前記3次元モデルに前記第2ベタ塗りパターンを貼り付ける箇所が異なる第1のセット群と、前記配置する所望のテクスチャーの数と同数の前記第1ベタ塗りパターンからなる1つの第2のセットとをそれぞれセット毎に前記3次元モデルに貼り付けてレンダリングし、
前記第1のセット群を各セット毎にレンダリングすることにより得られる各レンダリング済み画像の階調値と前記第2のセットをレンダリングすることにより得られるレンダリング済み画像の階調値とを前記第1のセット群の各セット毎に比較することにより、前記3次元モデルにテクスチャーが貼り付けられた領域であるテクスチャー領域を特定し、該特定したテクスチャー領域に対して前記ゲインを算出する
画像処理方法。 The image processing method according to claim 10, comprising:
In the case where a plurality of desired textures are arranged and displayed on the rendered image, a set group provided by the number of the desired textures to be arranged, each set being one second solid pattern and the A first set group consisting of the number of the first solid coating patterns obtained by subtracting the value 1 from the number of textures to be arranged, and the place where the second solid coating pattern is applied to the three-dimensional model for each set; , One second set consisting of the same number of the first solid pattern as the number of the desired textures to be arranged is pasted to the three-dimensional model for each set, and rendered.
The gradation value of each rendered image obtained by rendering the first set group for each set and the gradation value of the rendered image obtained by rendering the second set are the first values. An image processing method for identifying a texture region, which is a region where a texture is pasted on the three-dimensional model, by comparing each set of the set group, and calculating the gain for the identified texture region.
前記画像データから前記テクスチャーが貼り付けられるテクスチャー領域を抜き出す前処理手段と、
該抜き出したテクスチャー領域を可逆圧縮方式により圧縮する第1の圧縮手段と、
前記画像データのうち前記テクスチャー領域を抜き出した後の該領域の空白画素を所定の補完処理により補完すると共に該補完した後の画像データをJPEG圧縮方式により圧縮する第2の圧縮手段と
を備える画像処理装置。 An image processing apparatus that processes image data used when rendering by pasting a texture,
Preprocessing means for extracting a texture region to which the texture is pasted from the image data;
First compression means for compressing the extracted texture region by a reversible compression method;
An image comprising: a second compression unit that complements the blank pixels in the area after extracting the texture area from the image data by a predetermined complementing process and compresses the complemented image data by a JPEG compression method. Processing equipment.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010100640A JP2010288267A (en) | 2009-05-13 | 2010-04-26 | Image processing method and image processing apparatus |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009116956 | 2009-05-13 | ||
JP2010100640A JP2010288267A (en) | 2009-05-13 | 2010-04-26 | Image processing method and image processing apparatus |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009213430 Division | 2009-05-13 | 2009-09-15 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010288267A true JP2010288267A (en) | 2010-12-24 |
Family
ID=43543594
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010100640A Withdrawn JP2010288267A (en) | 2009-05-13 | 2010-04-26 | Image processing method and image processing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010288267A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN119180743A (en) * | 2024-11-22 | 2024-12-24 | 杭州群核信息技术有限公司 | Distributed rendering processing method, system, device, equipment and storage medium |
-
2010
- 2010-04-26 JP JP2010100640A patent/JP2010288267A/en not_active Withdrawn
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN119180743A (en) * | 2024-11-22 | 2024-12-24 | 杭州群核信息技术有限公司 | Distributed rendering processing method, system, device, equipment and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5573316B2 (en) | Image processing method and image processing apparatus | |
JP5482394B2 (en) | Image processing method and image processing apparatus | |
US10489970B2 (en) | 2D image processing for extrusion into 3D objects | |
US10204447B2 (en) | 2D image processing for extrusion into 3D objects | |
KR20160051154A (en) | Rendering method and apparatus, and electronic apparatus | |
JP5413081B2 (en) | Image display method and image display apparatus | |
US9928621B2 (en) | Line stylization through graphics processor unit (GPU) textures | |
TW201344632A (en) | 3D texture mapping method, apparatus with function for selecting level of detail by image content and computer readable storage medium storing the method | |
CA2992304A1 (en) | System and method for image processing | |
US8837842B2 (en) | Multi-mode processing of texture blocks | |
CN106717002B (en) | Block-based hybrid compression | |
JP2016071733A (en) | Image processor and image processing method | |
JP2010288267A (en) | Image processing method and image processing apparatus | |
JP2009077183A (en) | Data compression apparatus, data compression / decompression system, and data compression method | |
JP2010257224A (en) | Video display device | |
JP2010288268A (en) | Image processing method and image processing apparatus | |
JP2011076145A (en) | Image display method | |
KR100818286B1 (en) | Method and apparatus for rendering 3D graphics data considering fog effect | |
JP2011081531A (en) | Image display method | |
JP2011070569A (en) | Image display method | |
US9129447B2 (en) | Method and device for generating graphic images | |
CN111738903A (en) | Method, device and equipment for optimizing object layered material | |
CN119444953A (en) | Image rendering method, device, electronic device and storage medium | |
CN102999478B (en) | A kind of electronic document display method and display processing unit | |
JP2021192134A (en) | Image data generation device, image data generation method, image data generation program, and electronic game providing device using the same. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20121204 |