JP2009031226A - Image analysis apparatus and image generation apparatus - Google Patents
Image analysis apparatus and image generation apparatus Download PDFInfo
- Publication number
- JP2009031226A JP2009031226A JP2007198073A JP2007198073A JP2009031226A JP 2009031226 A JP2009031226 A JP 2009031226A JP 2007198073 A JP2007198073 A JP 2007198073A JP 2007198073 A JP2007198073 A JP 2007198073A JP 2009031226 A JP2009031226 A JP 2009031226A
- Authority
- JP
- Japan
- Prior art keywords
- image
- background
- translucent object
- translucent
- transmittance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000010191 image analysis Methods 0.000 title abstract description 14
- 238000002834 transmittance Methods 0.000 claims abstract description 131
- 238000009877 rendering Methods 0.000 claims description 31
- 239000002131 composite material Substances 0.000 claims description 30
- 239000000203 mixture Substances 0.000 claims description 23
- 238000000034 method Methods 0.000 claims description 22
- 238000004590 computer program Methods 0.000 claims description 5
- 230000015572 biosynthetic process Effects 0.000 claims 1
- 238000003786 synthesis reaction Methods 0.000 claims 1
- 230000005540 biological transmission Effects 0.000 abstract description 14
- 238000009792 diffusion process Methods 0.000 abstract description 7
- 238000000926 separation method Methods 0.000 abstract description 5
- 238000013500 data storage Methods 0.000 description 41
- 238000005286 illumination Methods 0.000 description 21
- 230000003287 optical effect Effects 0.000 description 5
- 238000005259 measurement Methods 0.000 description 3
- 230000002194 synthesizing effect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000035699 permeability Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
Images
Landscapes
- Investigating Or Analysing Materials By Optical Means (AREA)
- Image Generation (AREA)
Abstract
【課題】背景色に依存することなく、簡易な装置で未知な形状の半透明物体の光の透過及び拡散に関する性質を推定する。
【解決手段】画像解析装置1は、第1の半透明物体画像と、背景の明度が異なる第2の半透明物体画像と、背景の明度が実質的にゼロの第3の半透明物体画像とを記憶する画像データバッファ21と、第1の半透明物体画像及び第2の半透明物体画像に基づいて半透明物体の透過率を推定する透過率・色推定部11と、前記第3の半透明物体画像に基づいて、前記半透明物体の拡散反射率を推定する拡散反射率推定部13と、半透明物体の透過率を、半透明物体の正透過率及び拡散透過率に分離する透過率分離部14とを備える。
【選択図】図1
Kind Code: A1 A light transmission and diffusion property of a semi-transparent object having an unknown shape is estimated with a simple device without depending on a background color.
An image analysis apparatus includes a first translucent object image, a second translucent object image having a different background brightness, and a third translucent object image having a background brightness of substantially zero. An image data buffer 21, a transmittance / color estimation unit 11 for estimating the transmittance of the translucent object based on the first translucent object image and the second translucent object image, and the third semitransparent object image. Based on the transparent object image, a diffuse reflectance estimating unit 13 that estimates the diffuse reflectance of the translucent object, and a transmittance that separates the transmissivity of the translucent object into a regular transmittance and a diffuse transmittance of the translucent object And a separation unit 14.
[Selection] Figure 1
Description
本発明は、半透明物体をよりリアルに表現するための画像処理技術に関する。 The present invention relates to an image processing technique for expressing a translucent object more realistically.
従来、コンピュータグラフィックス技術において、透過率は物体の形状及びその物体の光学特性に基づいて決定したり、あるいは経験則に基づいて決定したりしていた。 Conventionally, in computer graphics technology, the transmittance has been determined based on the shape of the object and the optical characteristics of the object, or has been determined based on empirical rules.
最近では背景に既知色もしくは既知パターンを用いて、光学特性が未知な物体から、画素ごとの透過率を測定する方法が提案されている(例えば、非特許文献1,2)。 Recently, a method for measuring the transmittance of each pixel from an object with unknown optical characteristics using a known color or a known pattern as a background has been proposed (for example, Non-Patent Documents 1 and 2).
またレーザー光を用いた光学特性の測定方法も提案されている(例えば、特許文献1)。
ここで、非特許文献1のように既知背景色を用いた場合、測定したい物体と背景色に同じ色合いがある場合、その箇所を半透明であると誤認識する場合がある。また背景色によって物体そのものの色合いが変化してしまい、この誤認識を完全に除去することは難しい。 Here, when a known background color is used as in Non-Patent Document 1, if the object to be measured and the background color have the same hue, the location may be erroneously recognized as being translucent. Also, the color of the object itself changes depending on the background color, and it is difficult to completely eliminate this erroneous recognition.
一方、非特許文献2のように既知パターンを用いた場合、物体の形状を既知として光線追跡を行うため、形状の誤差は光線追跡の誤差を招き、測定結果に多大な影響を及ぼしかねない。 On the other hand, when a known pattern is used as in Non-Patent Document 2, ray tracing is performed with the shape of the object as known, so that an error in the shape causes an error in ray tracing and may greatly affect the measurement result.
また、特許文献1のようにレーザー光を用いた方法の場合、装置が大規模になるため3次元画像計測装置に組み込むといったことは難しい。 Further, in the case of a method using laser light as in Patent Document 1, it is difficult to incorporate the apparatus into a three-dimensional image measurement apparatus because the apparatus becomes large-scale.
そこで、本発明の目的は、背景色に依存することなく、簡易な装置で未知な形状の半透明物体の光の透過及び拡散に関する性質を推定することである。 Accordingly, an object of the present invention is to estimate the properties of light transmission and diffusion of a translucent object having an unknown shape with a simple device without depending on the background color.
本発明の別の目的は、半透明物体を撮影した画像から推定された透過に関する性質を用いて、その半透明物体をよりリアルに表現することである。 Another object of the present invention is to express the translucent object more realistically by using the property relating to transmission estimated from an image obtained by capturing the translucent object.
本発明の一つの実施態様に従う画像処理装置は、第1の背景を用いて半透明物体を撮影して得た第1の半透明物体画像と、前記第1の背景とは明度が異なる第2の背景を用いて前記半透明物体を撮影して得た第2の半透明物体画像と、前記第1及び第2の背景と明度が異なり、且つ明度が実質的にゼロの第3の背景を用いて前記半透明物体を撮影して得た第3の半透明物体画像とを記憶する手段と、前記第1の半透明物体画像における前記半透明物体領域の画素値と、前記第2の半透明物体画像における前記半透明物体領域の画素値とに基づいて、前記半透明物体の透過率を画素ごとに推定する透過率推定手段と、前記第3の半透明物体画像における前記半透明物体領域の画素値に基づいて、前記半透明物体の拡散反射率を画素ごとに推定する拡散反射率推定手段と、前記推定された前記半透明物体の画素ごとの透過率及び拡散反射率に基づいて、前記半透明物体の正透過率及び拡散透過率を、画素ごとに推定する正透過率及び拡散透過率推定手段と、前記推定された画素ごとの正透過率、拡散透過率、及び拡散反射率の各データを記憶する手段と、を備える。 An image processing apparatus according to an embodiment of the present invention provides a first translucent object image obtained by photographing a translucent object using a first background, and a second lightness different from that of the first background. A second translucent object image obtained by photographing the translucent object using the background of the first background, and a third background having a brightness different from that of the first and second backgrounds and substantially zero in brightness. Means for storing a third translucent object image obtained by photographing the translucent object, a pixel value of the translucent object region in the first translucent object image, and the second semitransparent object image. Based on the pixel value of the translucent object area in the transparent object image, the transmissivity estimating means for estimating the transmissivity of the translucent object for each pixel, and the translucent object area in the third translucent object image The diffuse reflectance of the translucent object is estimated for each pixel based on the pixel value of Based on the diffuse reflectance estimation means and the estimated transmissivity and diffuse reflectance of the translucent object for each pixel, regular transmissivity for estimating the transmissivity and diffuse transmissivity of the translucent object for each pixel Rate and diffuse transmittance estimating means, and means for storing each data of the estimated regular transmittance, diffuse transmittance, and diffuse reflectance for each pixel.
好適な実施態様では、前記第1の背景を撮影して得た第1の背景画像と、前記第2の背景を撮影して得た第2の背景画像とを記憶する手段をさらに備え、前記透過率推定手段は、前記第1の背景画像を用いて前記第1の半透明物体画像から前記第1の背景の影響を除去した画像と、前記第2の背景画像を用いて前記第2の半透明物体画像から前記第2の背景の影響を除去した画像とに基づいて、画素ごとに前記半透明物体の透過率を推定するようにしてもよい。 In a preferred embodiment, the apparatus further comprises means for storing a first background image obtained by photographing the first background and a second background image obtained by photographing the second background, The transmittance estimation means uses the first background image to remove the influence of the first background from the first translucent object image, and uses the second background image to perform the second operation. The transmissivity of the translucent object may be estimated for each pixel based on an image obtained by removing the influence of the second background from the translucent object image.
好適な実施態様では、前記透過率推定手段は、第1の半透明物体画像の処理対象画素の画素値をB1、第2の半透明物体画像の前記処理対象画素と対応する画素の各画素値をB2とし、第1の背景画像の各画素値をBQ1、第2の背景画像の前記処理対象画素と対応する画素の画素値をBQ2としたとき、次の式により、前記半透明物体の領域について、画素ごと、かつ、赤、緑、青ごとの透過率αを推定することもできる。
B1=(1−α)BP+αBQ1
B2=(1−α)BP+αBQ2
BP:半透明物体の処理対象画素の固有値
In a preferred embodiment, the transmittance estimating means sets the pixel value of the processing target pixel of the first translucent object image to B 1 and each pixel of the pixel corresponding to the processing target pixel of the second translucent object image. When the value is B 2 , each pixel value of the first background image is B Q1 , and the pixel value of the pixel corresponding to the processing target pixel of the second background image is B Q2 , For the transparent object region, it is also possible to estimate the transmittance α for each pixel and for each of red, green, and blue.
B 1 = (1−α) B P + αB Q1
B 2 = (1−α) B P + αB Q2
B P : Eigenvalue of pixel to be processed of translucent object
好適な実施態様では、前記透過率推定手段は、さらに、前記半透明物体の領域内の各画素について、前記固有値BPをさらに推定してもよい。 In a preferred embodiment, the transmittance estimation means may further estimate the eigenvalue BP for each pixel in the region of the translucent object.
好適な実施態様では、正透過率及び拡散透過率推定手段は、透過率α、正透過率i、拡散透過率kt、拡散反射率krとしたとき、
α>krであれば、kt=kr、i=α−ktと推定し、
α≦krであれば、kt=α、i=0と推定するようにしてもよい。
In a preferred embodiment, specular transmittance and diffuse transmittance estimating means, transmittance alpha, specular transmittance i, diffuse transmittance k t, when the diffuse reflectance k r,
If α> k r, it estimates that k t = k r, i = α-k t,
If α ≦ k r, it may be estimated that k t = α and i = 0.
本発明の一つの実施態様に従う画像処理装置は、半透明物体と、前記半透明物体の背後に位置する背景物体とを含み、前記半透明物体の少なくとも一部が前記背景物体と重なる重畳領域を有する合成画像を生成する装置であって、前記半透明物体の3次元形状データと、前記背景物体の3次元形状データとを記憶する手段と、予め指定された、前記半透明物体と前記背景物体との相対的な位置関係に基づいて、前記重畳領域における前記半透明物体と前記背景物体との相対距離を算出する手段と、前記半透明物体の3次元形状データに基づいて、半透明物体画像を生成する第1のレンダリング手段と、前記背景物体の3次元形状データに基づいて、背景物体画像を生成する第2のレンダリング手段と、前記半透明物体を撮影した画像から推定された、前記半透明物体の透過率を示すデータを記憶する手段と、前記半透明物体画像及び前記背景物体画像に基づいて前記合成画像を生成する手段であって、前記半透明物体の透過率に基づいて前記半透明物体画像の合成比率を定めるとともに、前記合成画像における前記重畳領域の背景物体の画像を、前記半透明物体と前記背景物体との相対距離に応じたぼけ具合にして前記合成画像を生成する画像生成手段と、を備える。 An image processing apparatus according to an embodiment of the present invention includes a translucent object and a background object located behind the translucent object, and an overlapping region in which at least a part of the translucent object overlaps the background object. An apparatus for generating a composite image having: means for storing the three-dimensional shape data of the semi-transparent object and the three-dimensional shape data of the background object; the semi-transparent object and the background object designated in advance; Means for calculating the relative distance between the semi-transparent object and the background object in the superimposition region based on the relative positional relationship between the semi-transparent object and the semi-transparent object image based on the three-dimensional shape data of the semi-transparent object. Estimated from a first rendering means for generating image, a second rendering means for generating a background object image based on the three-dimensional shape data of the background object, and an image obtained by photographing the translucent object Means for storing data indicating the transmissivity of the translucent object, and means for generating the composite image based on the translucent object image and the background object image, the transmissivity of the translucent object The composition ratio of the semi-transparent object image is determined based on the image, and the image of the background object in the superimposed region in the composite image is blurred according to the relative distance between the semi-transparent object and the background object. Image generating means for generating an image.
好適な実施態様では、前記画像生成手段は、前記重畳領域の背景物体画像を、前記半透明物体と前記背景物体との相対距離に応じてぼかしたぼけ画像を生成し、前記半透明物体の透過率に基づいて合成比率が定められた前記半透明物体画像と、前記ぼけ画像とに基づいて、前記合成画像の重畳領域を生成するようにしてもよい。 In a preferred embodiment, the image generation means generates a blurred image of the background object image of the superimposed region according to a relative distance between the translucent object and the background object, and transmits the translucent object. An overlap region of the composite image may be generated based on the translucent object image in which the composite ratio is determined based on the rate and the blurred image.
好適な実施態様では、前記半透明物体の正透過率及び拡散透過率を示すデータを記憶する手段をさらに備え、前記画像生成手段は、前記正透過率に基づいて前記背景物体画像の合成比率を定め、前記拡散透過率に基づいて前記ぼけ画像の合成比率を定め、前記半透明物体の透過率に基づいて合成比率が定められた半透明物体画像と、前記正透過率に基づいて合成比率が定められた背景物体画像と、前記拡散透過率に基づいて合成比率が定められたぼけ画像とに基づいて、前記合成画像の重畳領域を生成するようにしてもよい。 In a preferred embodiment, the apparatus further comprises means for storing data indicating the regular transmittance and the diffuse transmittance of the translucent object, and the image generating means calculates the composition ratio of the background object image based on the regular transmittance. Determining a composition ratio of the blurred image based on the diffuse transmittance, a translucent object image in which the composition ratio is determined based on the transmittance of the semitransparent object, and a composition ratio based on the regular transmittance. An overlap region of the composite image may be generated based on the determined background object image and the blurred image in which the composite ratio is determined based on the diffuse transmittance.
本発明の一つの実施態様に従う画像処理方法は、第1の背景を用いて半透明物体を撮影して得た第1の半透明物体画像と、前記第1の背景とは明度が異なる第2の背景を用いて前記半透明物体を撮影して得た第2の半透明物体画像と、前記第1及び第2の背景と明度が異なり、且つ明度が実質的にゼロの第3の背景を用いて前記半透明物体を撮影して得た第3の半透明物体画像とを記憶手段に格納する処理と、前記第1の半透明物体画像における前記半透明物体領域の画素値と、前記第2の半透明物体画像における前記半透明物体領域の画素値とに基づいて、前記半透明物体の透過率を所定の領域ごとに推定する処理と、前記第3の半透明物体画像における前記半透明物体領域の画素値に基づいて、前記半透明物体の拡散反射率を前記所定の領域ごとに推定する処理と、前記推定された前記半透明物体の前記所定の領域ごとの透過率及び拡散反射率に基づいて、前記半透明物体の正透過率及び拡散透過率を、前記所定の領域ごとに推定する処理と、を行う。 An image processing method according to an embodiment of the present invention includes a first translucent object image obtained by photographing a translucent object using the first background, and a second lightness different from that of the first background. A second translucent object image obtained by photographing the translucent object using the background of the first background, and a third background having a brightness different from that of the first and second backgrounds and substantially zero in brightness. A process of storing a third translucent object image obtained by photographing the translucent object using the storage means, a pixel value of the translucent object region in the first translucent object image, and the first Processing for estimating the transmissivity of the translucent object for each predetermined area based on the pixel value of the translucent object area in the second translucent object image, and the translucent in the third translucent object image Based on the pixel value of the object region, the diffuse reflectance of the translucent object is determined as the predetermined value. Based on the processing to estimate for each area, and the estimated transmissivity and diffuse reflectance of the predetermined area of the semitransparent object, the regular transmittance and diffuse transmittance of the translucent object A process for estimating each area is performed.
本発明の一つの実施態様に従う合成画像の生成方法は、半透明物体と、前記半透明物体の背後に位置する背景物体とを含み、前記半透明物体の少なくとも一部が前記背景物体と重なる重畳領域を有する合成画像を生成する方法であって、前記半透明物体の3次元形状データと、前記背景物体の3次元形状データとを記憶手段に格納する処理と、予め指定された、前記半透明物体と前記背景物体との相対的な位置関係に基づいて、前記重畳領域における前記半透明物体と前記背景物体との相対距離を算出する処理と、前記半透明物体の3次元形状データに基づいて、半透明物体画像を生成する処理と、前記背景物体の3次元形状データに基づいて、背景物体画像を生成する処理と、前記半透明物体を撮影した画像から推定された、前記半透明物体の透過率を示すデータを記憶手段に格納する処理と、前記半透明物体画像及び前記背景物体画像に基づいて前記合成画像を生成する手段であって、前記半透明物体の透過率に基づいて前記半透明物体画像の合成比率を定めるとともに、前記合成画像における前記重畳領域の背景物体の画像を、前記半透明物体と前記背景物体との相対距離に応じたぼけ具合にして前記合成画像を生成する処理と、を行う。 A method for generating a composite image according to an embodiment of the present invention includes a translucent object and a background object located behind the translucent object, and at least a part of the translucent object overlaps the background object. A method for generating a composite image having a region, wherein the semi-transparent object three-dimensional shape data and the background object three-dimensional shape data are stored in a storage means, and the semi-transparent specified in advance Based on the relative positional relationship between the object and the background object, based on the process of calculating the relative distance between the translucent object and the background object in the overlap region, and based on the three-dimensional shape data of the translucent object A process of generating a translucent object image, a process of generating a background object image based on the three-dimensional shape data of the background object, and the translucent object estimated from an image obtained by photographing the translucent object Storing the data indicating the transmittance of the image in the storage means, and means for generating the composite image based on the translucent object image and the background object image, and based on the transmissivity of the translucent object The composition ratio of the semi-transparent object image is determined, and the image of the background object in the superimposed area in the composite image is blurred according to the relative distance between the semi-transparent object and the background object to generate the composite image. And processing.
以下、本発明の一つの実施形態に係る画像処理装置について、図面を参照して説明する。 Hereinafter, an image processing apparatus according to an embodiment of the present invention will be described with reference to the drawings.
本実施形態に係る画像処理装置は、図1にその構成を示す画像解析装置1及び画像撮影装置3と、図6にその構成を示す画像生成装置7とを有する。
The image processing apparatus according to the present embodiment includes an image analysis apparatus 1 and an
画像解析装置1及び画像生成装置7は、いずれも所定のコンピュータシステムにより構成され、以下に説明する画像解析装置1及び画像生成装置7の構成要素または機能は、例えば、所定のハードウェア及びソフトウェア(コンピュータプログラム)により実現することができる。 The image analysis apparatus 1 and the image generation apparatus 7 are both configured by a predetermined computer system. The components or functions of the image analysis apparatus 1 and the image generation apparatus 7 described below are, for example, predetermined hardware and software ( It can be realized by a computer program.
図1は、本実施形態に係る画像解析装置1及び画像撮影装置3の構成を示す。
FIG. 1 shows a configuration of an image analysis device 1 and an
画像撮影装置3は、天井照明部31と、画像センサ32と、背面照明部33と、フィルタテーブル35と、試料テーブル37とを備える。
The
天井照明部31は、蛍光灯31a、31bと照明拡散板31cによって構成されている。天井照明部31は、画像センサ32の視野内において試料テーブル37に配置された試料である半透明物体5を照らす。
The ceiling illumination unit 31 includes
背面照明部33は、画像センサ32の光軸上に位置するフィルタテーブル35上のフィルタ35a〜35cを、画像センサ32に対して背面から照らす。各フィルタ35a〜35cは、それぞれが画像センサ32が撮影する画像の背景となる。
The
図2は、フィルタテーブル35の一例を示す。フィルタテーブル35は、円形のテーブルに複数(同図では3つ)の異なった濃度フィルタが配置されている。本実施形態では、濃度0%(背面照明をすべて透過)のフィルタ35a、濃度1%〜99%(背面照明を一部遮断)のフィルタ35b、濃度100%(背面照明をすべて遮断)のフィルタ35cが設置されている。つまり、各フィルタ35a〜35cを背景としたとき、その背景の明度は互いに異なる。特に、フィルタ35cは明度が実質的にゼロである。以下、フィルタ35aを用いた場合を「白背景」、フィルタ35bを用いた場合を「灰背景」、フィルタ35cを用いた場合を「黒背景」と呼ぶ。
FIG. 2 shows an example of the filter table 35. In the filter table 35, a plurality of (three in the figure) different density filters are arranged on a circular table. In this embodiment, a
なお、濃度0%のフィルタ35aは、何もフィルタを有しない空洞でよい。また、フィルタ35bは、例えば濃度50%のものでよい。
The
図3は、試料テーブル37の一例を示す。試料テーブル37は、円形のテーブルに、測定対象の試料として半透明な特性を有する半透明物体5が戴置された試料領域37aと、拡散反射率が既知な標準拡散反射板(グレイカード)37bと、空洞領域37cとが設けられている。
FIG. 3 shows an example of the sample table 37. The sample table 37 includes a
画像撮影装置3において、フィルタテーブル35及び試料テーブル37のそれぞれの中心は、共通の軸上に設置されている。フィルタテーブル35及び試料テーブル37は、その中心軸を中心にそれぞれ回転可能である。フィルタテーブル35及び試料テーブル37の位置は、手動で定めても良いし、図示しない制御装置によって制御してもよい。
In the
本実施形態では、フィルタテーブル35及び試料テーブル37の位置をそれぞれ定めて以下の画像を撮影する。撮影された画像のデータは、画像データバッファ21に格納される。
画像1:白背景試料画像(試料領域37a+フィルタ35a)
画像2:灰背景試料画像(試料領域37a+フィルタ35b)
画像3:白背景画像(空洞領域37c+フィルタ35a)
画像4:灰背景画像(空洞領域37c+フィルタ35b)
画像5:黒背景画像(空洞領域37c+フィルタ35c)
画像6:標準拡散画像(標準拡散反射板37b)
In this embodiment, the positions of the filter table 35 and the sample table 37 are determined, and the following images are taken. The captured image data is stored in the
Image 1: White background sample image (
Image 2: Gray background sample image (
Image 3: White background image (
Image 4: Gray background image (
Image 5: Black background image (
Image 6: Standard diffuse image (standard diffuse
なお、これらの画像を撮影するときは、天井照明及び背面照明の条件はすべて同一である。さらに、画像1及び画像2において、半透明物体5の位置は同一として撮影する。この結果、画像1及び画像2の同一位置の画素には、半透明物体5の同一部位が、異なる背景で写っている。また、画像1と画像3の相違は、試料が存在するかだけであり、背景の画像は共通である。画像2と画像4の相違も同様に試料が存在するかだけであり、背景の画像は共通である。
Note that when these images are taken, the conditions for the ceiling illumination and the back illumination are all the same. Further, in the image 1 and the image 2, the
従って、以下に説明する各処理では、各画像の同一位置の画素同士を比較することによって、各画素と対応する位置の半透明物体の透過率等を推定することができる。 Therefore, in each process described below, by comparing pixels at the same position in each image, it is possible to estimate the transmissivity and the like of a translucent object at a position corresponding to each pixel.
再び図1を参照して、画像解析装置1について説明する。 The image analysis apparatus 1 will be described with reference to FIG. 1 again.
画像解析装置1は、透過率・色推定部11と、天井照明推定部12と、拡散反射率推定部13と、透過率分離処理部14と、画像データバッファ21と、色データ記憶部22と、透過率データ記憶部23と、天井照明データ記憶部24と、拡散反射率データ記憶部25と、正透過率データ記憶部26と、拡散透過率データ記憶部27とを有する。
The image analysis device 1 includes a transmittance /
画像データバッファ21は、画像撮影装置3によって撮影された画像データを記憶する。本実施形態では、上述した各画像1〜6の画像データが画像データバッファ21に記憶される。
The
透過率・色推定部11は、画像データバッファ21に記憶されている画像データに基づいて、半透明物体5の透過率及び色を推定する。透過率・色推定部11によって推定された色及び透過率は、それぞれ、色データ記憶部22及び透過率データ記憶部23に格納される。
The transmittance /
透過率・色推定部11は、例えば、R(赤)G(緑)B(青)のそれぞれについて、透過率α及び半透明物体5固有の画素値BPを推定する。このRGB別の透過率αが透過率データ記憶部23に格納され、半透明物体5固有の画素値BPが色データ記憶部22に格納される。
The transmittance /
まず、画像データバッファ21に記憶されている、各画像データのRGB別画素値Bは、以下の式で表される。
B=(1−α)BP+αBQ
B:画素値
α:透過率
BP:半透明物体固有の画素値
BQ:背景画像の画素値
First, the RGB pixel value B of each image data stored in the
B = (1-α) B P + αB Q
B: Pixel value α: Transmittance B P : Pixel value peculiar to semi-transparent object B Q : Pixel value of background image
ここで、白背景試料画像(画像1)のRGB別画素値B1は、式(1)で表される。
B1=(1−α)BP+αBQ1 ・・・(1)
Here, the RGB pixel value B 1 of the white background sample image (image 1) is expressed by equation (1).
B 1 = (1−α) B P + αB Q1 (1)
また、白背景画像(画像3)のRGB別画素値B3は、白背景画像を直接撮影したものであるから、式(2)で表される。
B3=BQ1 ・・・(2)
Further, RGB specific pixel value B 3 of white background image (image 3), since it was taken a white background image directly represented by the formula (2).
B 3 = B Q1 (2)
これと同様に、白背景試料画像(画像2)及び灰背景画像(画像4)のRGB別画素値B2、B4は、それぞれ式(3)(4)で表される。
B2=(1−α)BP+αBQ2 ・・・(3)
B4=BQ2 ・・・(4)
Similarly, RGB pixel values B 2 and B 4 of the white background sample image (image 2) and the gray background image (image 4) are expressed by equations (3) and (4), respectively.
B 2 = (1−α) B P + αB Q2 (3)
B 4 = B Q2 (4)
式(1)〜(4)により、各画素についてRGB別の透過率αと、RGB別の半透明物体固有の画素値BPが求まる。 The equation (1) to (4), the RGB-specific transmittance alpha, RGB separate translucent objects specific pixel value B P is obtained for each pixel.
天井照明推定部12は、画像データバッファ21に記憶されている標準拡散画像(画像6)の画像データに基づいて、天井照明光が画像に与える影響を推定する。推定された天井照明光が画像に与える影響を示す天井照明データは、天井照明データ記憶部24に格納される。
The ceiling
標準拡散画像(画像6)は、透過光が存在しないので、このRGB別画素値B6は、式(5)で表される。
B6=kNBU ・・・(5)
BU:天井照明データ
kN:標準拡散板の拡散反射率(既知)
Standard diffusion images (image 6), since the transmitted light does not exist, the RGB specific pixel value B 6 is expressed by Equation (5).
B 6 = k N B U (5)
B U : Ceiling lighting data k N : Diffuse reflectance of standard diffuser (known)
式(5)により、各画素についてRGB別の天井照明データBUが求まる。この天井照明データBUは、天井照明データ記憶部24に格納される。
The equation (5), RGB separate ceiling illumination data B U is determined for each pixel. The ceiling illumination data BU is stored in the ceiling illumination
拡散反射率推定部13は、天井照明データと画像データバッファ21に記憶されている画像データとに基づいて、半透明物体5の拡散反射率krを推定する。推定された拡散反射率krは、拡散反射率データ記憶部25に格納される。
Diffuse
ここで、黒背景画像(画像5)も透過光が存在しないので、このRGB別画素値B5は式(6)で表される。
B5=krBU ・・・(6)
kr:拡散反射率
Since a black background image (image 5) the transmitted light does not exist, the RGB specific pixel value B 5 is represented by the formula (6).
B 5 = k r B U (6)
k r : diffuse reflectance
従って、式(5)から求めた天井照明データ及び式(6)から、各画素についてRGB別の拡散反射率krが求まる。この各画素のRGB別の拡散反射率krは、拡散反射率データ記憶部25に格納される。
Therefore, from equation ceiling illumination data and equations obtained from (5) (6), RGB separate diffuse reflectance k r is determined for each pixel. The RGB separate diffuse reflectance k r of each pixel is stored in the diffuse
透過率分離処理部14は、透過率データ記憶部23に格納されている透過率データに基づいて、各画素についてRGB別の透過率αを正透過率iと拡散透過率ktに分離する。分離された各画素についてRGB別の正透過率i及び拡散透過率ktは、それぞれ正透過率データ記憶部26及び拡散透過率データ記憶部27に格納される。
Transmittance
ここで、図4を用いて、透過率α、正透過率i及び拡散透過率ktについて説明する。 Here, the transmittance α, the regular transmittance i, and the diffuse transmittance kt will be described with reference to FIG.
図4Aに示すように、半透明物体の場合、背面から入射した光の一部が正面側へ透過する。このときの入射光強度に対する透過光強度の割合が透過率αである。 As shown in FIG. 4A, in the case of a translucent object, part of the light incident from the back surface is transmitted to the front surface side. The ratio of the transmitted light intensity to the incident light intensity at this time is the transmittance α.
また、透過には、入射光がそのまま向きを変えずに透過する正透過と、入射光が拡散しながら透過する拡散透過とがある。ここで、透過率α、正透過率i及び拡散透過率ktは、一般には式(7)の関係を満たす。
α=i+kt ・・・(7)
また、図4Bに示すように、半透明物体に正面から入射した光は、半透明物体の表面で拡散しながら反射する。入射光の強度に対する拡散反射光の強度が拡散反射率krである。
Transmission includes normal transmission in which incident light is transmitted without changing the direction and diffuse transmission in which incident light is transmitted while diffusing. Here, the transmittance alpha, specular transmittance i and diffuse transmittance k t is generally satisfy the relationship of equation (7).
α = i + k t (7)
Further, as shown in FIG. 4B, the light incident on the translucent object from the front is reflected while being diffused on the surface of the translucent object. The intensity of the diffuse reflected light to the intensity of the incident light is diffuse reflectance k r.
上記の関係に基づいて、本実施形態では、透過率分離処理部14は以下のようにして各画素についてRGB別の透過率αを正透過率iと拡散透過率ktに分離する。
Based on the above relation, in this embodiment, it separates the RGB separate transmittance α For transmittance
まず、透過率αが拡散反射率krよりも大きい場合(例えば半透明物体が非常に薄い場合など)は、透過光は図5Aに示すようになっていると推測できる。つまり、比較的大きな正透過に対して、拡散透過は小さい。そこで、拡散透過率ktは拡散反射率krに等しいと考える。その結果、透過率α、正透過率i及び拡散透過率ktは、式(8)、(9)となる。
kt=kr ・・・(8)
i=α−kt ・・・(9)
ただし、α>kr
First, if the transmittance α is larger than the diffusion reflectance k r (e.g. translucent objects such as when very thin), the transmitted light can be estimated and is as shown in Figure 5A. That is, diffuse transmission is small compared to relatively large regular transmission. Therefore, diffuse transmittance k t is considered to be equal to the diffuse reflectance k r. As a result, the transmittance α, the regular transmittance i, and the diffuse transmittance kt are expressed by equations (8) and (9).
k t = k r (8)
i = α−k t (9)
Where α> kr
一方、透過率αが拡散反射率kr以下である場合(例えば、半透明物体が比較的厚い場合など)は、透過光は図5Bに示すようになっていると推測できる。つまり、正透過は極めて小さいので無視することが可能であり、透過光はすべてが拡散透過によるものと考える。その結果、透過率α、正透過率i及び拡散透過率ktは、式(10)、(11)となる。
kt=α ・・・(10)
i=0 ・・・(11)
ただし、α≦kr
On the other hand, if the transmittance α is less diffuse reflectance k r (for example, if a semi-transparent object is relatively thick, etc.), the transmitted light can be inferred that is as shown in Figure 5B. In other words, the regular transmission is extremely small and can be ignored, and all the transmitted light is considered to be diffusely transmitted. As a result, the transmittance α, the regular transmittance i, and the diffuse transmittance kt are expressed by equations (10) and (11).
k t = α (10)
i = 0 (11)
However, α ≦ k r
上述した本実施形態に係る画像解析装置1及び画像撮影装置3によれば、背景色に依存することなく、かつ、簡易な装置で未知な形状の半透明物体の光の透過及び拡散に関する性質を推定することができる。
According to the image analysis apparatus 1 and the
次に、図6は本実施形態に係る画像生成装置7の構成を示す。同図に示す画像生成装置7は、上述した画像撮影装置3で撮影し、画像解析装置1で処理を行った半透明物体の透過率などを用いて、その半透明物体と所定の背景物体の画像とを重ねた合成画像を生成する。ただし、画像生成装置7は、画像撮影装置3及び画像解析装置1以外の装置を用いて推定した透過率等を用いて合成画像を生成することもできる。このとき、実際に半透明物体を撮影した画像から推定された透過率等を用いても良い。
Next, FIG. 6 shows a configuration of the image generation apparatus 7 according to the present embodiment. The image generation apparatus 7 shown in the figure uses the transmissivity of the translucent object photographed by the above-described
また、合成画像を生成するとき、半透明物体と背景物体との相対的な位置関係は予め指定されている。本実施形態では、背景物体の手前に半透明物体が位置し、両者の少なくとも一部が重なっている場合を対象とする。つまり、背景物体と半透明物体とが重なっている領域と、重なっていない領域とがある場合には、両者が重なっていない領域については、背景物体のレンダリング画像と半透明物体のレンダリング画像をそれぞれ別個に生成する。背景物体と半透明物体とが重なった領域については、画像生成装置7が以下に説明するようにして画像を合成する。 Further, when generating a composite image, the relative positional relationship between the translucent object and the background object is designated in advance. In this embodiment, a case where a translucent object is positioned in front of a background object and at least a part of both overlaps is targeted. In other words, if there is a region where the background object and the semi-transparent object overlap and a region where they do not overlap, the rendered image of the background object and the rendered image of the translucent object are respectively displayed for the non-overlapping region. Generate separately. For the region where the background object and the semi-transparent object overlap, the image generation device 7 synthesizes the image as described below.
画像生成装置7は、背景レンダリング部71と、半透明物体レンダリング部72と、差分画像生成部73と、ぼけ画像生成部74と、画像合成部75とを備える。また、画像生成装置7は、データを記憶する記憶部として、背景物体の形状データ記憶部81と、背景物体の色データ記憶部82と、半透明物体の形状データ記憶部83と、半透明物体の色データ記憶部22と、透過率データ記憶部23と、正透過率データ記憶部26と、拡散透過率データ記憶部27と、背景物体のレンダリング画像記憶部84と、背景物体の距離画像記憶部85と、半透明物体の距離画像記憶部86と、半透明物体のレンダリング画像記憶部87と、距離の差分画像記憶部88と、背景物体のぼけ画像記憶部89と、合成画像記憶部90とを備える。
The image generation device 7 includes a
背景物体の形状データ記憶部81には、例えば、ポリゴンを用いて表現された、背景物体の3次元モデルの形状データが記憶されている。3次元モデルの形状データは、例えば、3次元スキャナなどを用いて背景物体を計測して生成しても良い。
The shape
背景物体の色データ記憶部82は、例えば、背景物体の形状データ記憶部81に記憶された3次元モデルの形状データの各ポリゴンの色のデータが記憶されている。
The background object color
半透明物体の形状データ記憶部83には、半透明物体5のポリゴンを用いて表現された3次元モデルの形状データが記憶されている。半透明物体5の3次元モデルの形状データは、画像撮影装置3の画像センサ32を用いて予め計測しておいても良い。各ポリゴンは、半透明物体の色データ記憶部22の色データと予め対応付けられている。
The translucent object shape
半透明物体の色データ記憶部22、透過率データ記憶部23、正透過率データ記憶部26、及び拡散透過率データ記憶部27は、それぞれ、画像解析装置1の色データ記憶部22、透過率データ記憶部23、正透過率データ記憶部26、及び拡散透過率データ記憶部27である。
The translucent object color
背景レンダリング部71は、背景物体の形状データ記憶部81と背景物体の色データ記憶部82にそれぞれに記憶された形状データ及び色データに基づいて、背景物体のレンダリング処理を行う。例えば、背景レンダリング部71は、所定の視点に対して予め定められた位置に配置された背景物体のレンダリング画像を生成する。生成された背景物体のレンダリング画像は、背景物体のレンダリング画像記憶部84に格納される。背景レンダリング部71は、それとともに、同じ視点から見たときの背景物体の距離画像を生成し、背景物体の距離画像記憶部85に格納する。
The
半透明物体レンダリング部72は、半透明物体の形状データ記憶部83と半透明物体の色データ記憶部22にそれぞれに記憶された形状データ及び色データに基づいて、半透明物体5のレンダリング処理を行う。例えば、半透明物体レンダリング部72は、背景物体のレンダリングに用いたものと同一の視点に対して予め定められた位置に配置された半透明物体5のレンダリング画像を生成する。生成された半透明物体5のレンダリング画像は、半透明物体のレンダリング画像記憶部87に格納される。半透明物体レンダリング部72は、さらに、同じ視点から見たときの半透明物体5の距離画像を生成し、半透明物体の距離画像記憶部86に格納する。
The translucent
差分画像生成部73は、背景物体の距離画像記憶部85と半透明物体の距離画像記憶部86を参照して、背景物体と半透明物体5との相対距離を示す距離の差分画像を生成し、距離の差分画像記憶部88に格納する。ここで、背景物体及び半透明物体は、それぞれ所定の視点からの位置が予め定められているので、背景物体と半透明物体との相対的な位置も予め定められている。
The difference
ぼけ画像生成部74は、背景物体のレンダリング画像記憶部84と距離の差分画像記憶部88を参照して、背景物体と半透明物体5とが重なっている領域の背景物体の画像をぼけさせたぼけ画像を生成し、背景物体のぼけ画像記憶部89に格納する。
The blur
ぼけ画像生成部74の処理について、図7を用いて説明する。まず、ぼけ画像生成部74は、所定のぼけフィルタ(以下、単に「フィルタ」と称することがある)740を用意する。同図の例では、ぼけフィルタ740のサイズは7×7画素であるが、フィルタサイズはこれに限らない。
The process of the blurred
ぼけ画像生成部74は、背景物体のレンダリング画像840に対してフィルタをかけて、背景物体のぼけ画像890を生成する。ここで、フィルタ740の各要素には、それぞれ0〜1の係数が定められている。この係数は後述する要領で変動する。従って、ぼけ画像生成部74は、背景物体のレンダリング画像840の対象画素841とフィルタ740の中心要素741とが一致するように、レンダリング画像840にフィルタ740を当てる。そして、フィルタ740がカバーするレンダリング画像840の各画素の画素値とフィルタの各要素の係数を掛け合わせる。ぼけ画像生成部74は、この処理をレンダリング画像840の全画素に対して順次行い、各画素値とフィルタの係数とを掛け合わせた値の画素ごとの総和を算出して、背景物体のぼけ画像890を生成する。
The blurred
ここで、フィルタ740の各要素の係数は、以下のようにして定める。まず、フィルタ740の中心要素741の係数が、対象画素841と対応する差分画像880の対応画素881の値(相対距離d)に応じて定まる。例えば、この相対距離dが小さいほど係数は1に近くなり、ぼけ画像890におけるぼけ具合が小さくなる。一方、この相対距離dが大きいほど係数は0に近くなり、ぼけ画像890におけるぼけ具合が大きくなる。
Here, the coefficient of each element of the
フィルタ740の中心要素741以外の周囲の要素は、中心要素741の係数に応じて定まる。例えば、中心要素741の係数が最大であり、中心要素741から離れるほど係数が小さくなるようにしても良い。
Surrounding elements other than the
例えば、図8は、ぼけフィルタ740の係数分布を示す図である。つまり、同図は、係数と中心要素741からの距離との関係示している。例えば、相対距離dが最も小さい第1の閾値よりも小さいとき(相対距離d:小)は、図8Aに示すように各係数を定めても良い。同様に、相対距離dが第1の閾値と第2の閾値(第2の閾値>第1の閾値)との間であるとき(相対距離d:中)は、図8Bに示すように各係数を定めても良い。さらに、距離差が第2の閾値より大きいとき(相対距離d:大)は、図8Cに示すように各係数を定めても良い。
For example, FIG. 8 is a diagram illustrating a coefficient distribution of the
これは、背景物体の手前に半透明物体が位置するとき、半透明物体と背景物体との相対距離に応じて背景のぼけ具合が異なって見えることを、画像生成装置7が生成する合成画像で再現するためである。つまり、半透明物体と背景物体との距離が近いときは背景物体のぼけ具合は小さく、半透明物体と背景物体との距離が大きいほど背景物体のぼけ具合が大きくなる。ぼけ画像生成部74は、半透明物体5と背景物体との相対距離に応じてぼけ具合になるように、ぼけ画像890を生成する。
This is a composite image generated by the image generation device 7 that the background blur looks different depending on the relative distance between the translucent object and the background object when the translucent object is positioned in front of the background object. This is to reproduce. That is, when the distance between the translucent object and the background object is short, the degree of blur of the background object is small, and as the distance between the translucent object and the background object is large, the degree of blur of the background object becomes large. The blurred
画像合成部75は、背景物体のレンダリング画像記憶部84,半透明物体のレンダリング画像記憶部87及び背景物体のぼけ画像記憶部89を参照して、半透明物体5と背景物体とが重なった重畳領域の合成画像を生成して、合成画像記憶部90に格納する。
The
画像合成を行う際、画像合成部75は、半透明物体のレンダリング画像記憶部87の半透明物体のレンダリング画像を透過率αを用いて補正する。つまり、画像合成部75は、半透明物体のレンダリング画像の各画素に対して、それぞれ対応する透過率αを用いて、(1−α)を掛ける。また、画像合成部75は、背景物体のレンダリング画像記憶部84の背景物体のレンダリング画像を正透過率iを用いて補正する。つまり、画像合成部75は、背景物体のレンダリング画像の各画素に対して、それぞれ対応する正透過率iを掛ける。さらに、画像合成部75は、背景物体のぼけ画像記憶部89の背景物体のぼけ画像を拡散透過率ktを用いて補正する。つまり、画像合成部75は、背景物体のぼけ画像の各画素に対して、それぞれ対応する拡散透過率ktを掛ける。
When performing image composition, the
画像合成部75は、各画素について、上記のように透過率α、正透過率i及び拡散透過率ktにより補正された半透明物体のレンダリング画像、背景物体のレンダリング画像、及び背景物体のぼけ画像の各画素値を加算して、合成画像を生成する。
For each pixel, the
なお、画像合成部75は正透過率i及び拡散透過率ktを用いないで合成画像を生成しても良い。例えば、画像合成部75は、例えば透過率αを用いて、合成画像を生成しても良い。つまり、このとき画像合成部75は、透過率αに基づいて半透明物体画像の合成比率を定めて、相対距離dに応じて背景物体画像をぼかしたぼけ画像と合成して合成画像を生成する。
Incidentally, the
従来は、半透明物体の実際の透過率などは考慮していなかったが、本実施形態に係る画像生成装置7によれば、半透明物体から推定された透過率などを用いて画像を生成するので、その半透明物体の透過具合などをよりリアルに表現することができる。 Conventionally, the actual transmittance of the translucent object has not been taken into consideration, but according to the image generation device 7 according to the present embodiment, an image is generated using the transmittance estimated from the translucent object. Therefore, the translucency of the translucent object can be expressed more realistically.
上述した本発明の実施形態は、本発明の説明のための例示であり、本発明の範囲をそれらの実施形態にのみ限定する趣旨ではない。当業者は、本発明の要旨を逸脱することなしに、他の様々な態様で本発明を実施することができる。 The above-described embodiments of the present invention are examples for explaining the present invention, and are not intended to limit the scope of the present invention only to those embodiments. Those skilled in the art can implement the present invention in various other modes without departing from the gist of the present invention.
1 画像解析装置
3 画像撮影装置
5 半透明物体
7 画像生成装置
11 透過率・色推定部
12 天井照明推定部
13 拡散反射率推定部
14 透過率分離処理部
71 背景レンダリング部
72 半透明物体レンダリング部
73 差分画像生成部
74 画像生成部
75 画像合成部
DESCRIPTION OF SYMBOLS 1
Claims (10)
前記第1の半透明物体画像における前記半透明物体領域の画素値と、前記第2の半透明物体画像における前記半透明物体領域の画素値とに基づいて、前記半透明物体の透過率を画素ごとに推定する透過率推定手段と、
前記第3の半透明物体画像における前記半透明物体領域の画素値に基づいて、前記半透明物体の拡散反射率を画素ごとに推定する拡散反射率推定手段と、
前記推定された前記半透明物体の画素ごとの透過率及び拡散反射率に基づいて、前記半透明物体の正透過率及び拡散透過率を、画素ごとに推定する正透過率及び拡散透過率推定手段と、
前記推定された画素ごとの正透過率、拡散透過率、及び拡散反射率の各データを記憶する手段と、を備える画像処理装置。 Photographing the translucent object using a first translucent object image obtained by photographing the translucent object using the first background and a second background having a brightness different from that of the first background The obtained second translucent object image is obtained by photographing the translucent object using a third background having a lightness different from that of the first and second backgrounds and having substantially zero lightness. Means for storing three translucent object images;
Based on the pixel value of the semi-transparent object area in the first semi-transparent object image and the pixel value of the semi-transparent object area in the second semi-transparent object image, the transmittance of the semi-transparent object is defined as a pixel. A transmittance estimation means for estimating each,
Diffuse reflectance estimation means for estimating a diffuse reflectance of the translucent object for each pixel based on a pixel value of the translucent object region in the third translucent object image;
Based on the estimated transmissivity and diffuse reflectance for each pixel of the semi-transparent object, normal transmittance and diffuse transmittance estimation means for estimating the regular transmittance and diffuse transmittance of the semi-transparent object for each pixel. When,
Means for storing each data of the estimated regular transmittance, diffuse transmittance, and diffuse reflectance of each pixel.
前記透過率推定手段は、前記第1の背景画像を用いて前記第1の半透明物体画像から前記第1の背景の影響を除去した画像と、前記第2の背景画像を用いて前記第2の半透明物体画像から前記第2の背景の影響を除去した画像とに基づいて、画素ごとに前記半透明物体の透過率を推定する請求項1記載の画像処理装置。 Means for storing a first background image obtained by photographing the first background and a second background image obtained by photographing the second background;
The transmittance estimating means uses the first background image to remove the influence of the first background from the first translucent object image, and uses the second background image to perform the second. The image processing apparatus according to claim 1, wherein the transmissivity of the translucent object is estimated for each pixel based on an image obtained by removing the influence of the second background from the translucent object image.
B1=(1−α)BP+αBQ1
B2=(1−α)BP+αBQ2
BP:半透明物体の処理対象画素の固有値 The transmittance estimating means sets the pixel value of the processing target pixel of the first translucent object image to B 1 , and sets the pixel value of the pixel corresponding to the processing target pixel of the second translucent object image to B 2 , When each pixel value of the first background image is B Q1 and the pixel value of the pixel corresponding to the processing target pixel of the second background image is B Q2 , the region of the translucent object is expressed by the following equation: The image processing apparatus according to claim 2, wherein the transmittance α for each pixel and for each of red, green, and blue is estimated.
B 1 = (1−α) B P + αB Q1
B 2 = (1−α) B P + αB Q2
B P : Eigenvalue of pixel to be processed of translucent object
α>krであれば、kt=kr、i=α−ktと推定し、
α≦krであれば、kt=α、i=0と推定することを特徴とする請求項1〜4のいずれかに記載の画像処理装置。 Specular transmittance and diffuse transmittance estimating means, transmittance alpha, specular transmittance i, diffuse transmittance k t, when the diffuse reflectance k r,
If α> k r, it estimates that k t = k r, i = α-k t,
The image processing apparatus according to claim 1, wherein if α ≦ k r , k t = α and i = 0 are estimated.
前記半透明物体の3次元形状データと、前記背景物体の3次元形状データとを記憶する手段と、
予め指定された、前記半透明物体と前記背景物体との相対的な位置関係に基づいて、前記重畳領域における前記半透明物体と前記背景物体との相対距離を算出する手段と、
前記半透明物体の3次元形状データに基づいて、半透明物体画像を生成する第1のレンダリング手段と、
前記背景物体の3次元形状データに基づいて、背景物体画像を生成する第2のレンダリング手段と、
前記半透明物体を撮影した画像から推定された、前記半透明物体の透過率を示すデータを記憶する手段と、
前記半透明物体画像及び前記背景物体画像に基づいて前記合成画像を生成する手段であって、前記半透明物体の透過率に基づいて前記半透明物体画像の合成比率を定めるとともに、前記合成画像における前記重畳領域の背景物体の画像を、前記半透明物体と前記背景物体との相対距離に応じたぼけ具合にして前記合成画像を生成する画像生成手段と、を備えた画像処理装置。 An apparatus for generating a composite image including a translucent object and a background object located behind the translucent object, wherein at least a part of the translucent object overlaps the background object,
Means for storing the three-dimensional shape data of the translucent object and the three-dimensional shape data of the background object;
Means for calculating a relative distance between the translucent object and the background object in the superimposed region based on a relative positional relationship between the translucent object and the background object specified in advance;
First rendering means for generating a translucent object image based on the three-dimensional shape data of the translucent object;
Second rendering means for generating a background object image based on the three-dimensional shape data of the background object;
Means for storing data indicating the transmissivity of the translucent object estimated from an image of the translucent object;
Means for generating the composite image based on the translucent object image and the background object image, and determining a composite ratio of the translucent object image based on the transmissivity of the translucent object; An image processing apparatus, comprising: an image generation unit configured to generate an image of the background object in the superimposition region with a degree of blur corresponding to a relative distance between the translucent object and the background object.
前記重畳領域の背景物体画像を、前記半透明物体と前記背景物体との相対距離に応じてぼかしたぼけ画像を生成し、前記半透明物体の透過率に基づいて合成比率が定められた前記半透明物体画像と、前記ぼけ画像とに基づいて、前記合成画像の重畳領域を生成することを特徴とする請求項6記載の画像処理装置。 The image generating means includes
The background object image of the superimposition region is generated according to a relative distance between the translucent object and the background object, and a blurred image is generated, and the synthesis ratio is determined based on the transmittance of the translucent object. The image processing apparatus according to claim 6, wherein a superimposed region of the composite image is generated based on a transparent object image and the blurred image.
前記画像生成手段は、
前記正透過率に基づいて前記背景物体画像の合成比率を定め、前記拡散透過率に基づいて前記ぼけ画像の合成比率を定め、
前記半透明物体の透過率に基づいて合成比率が定められた半透明物体画像と、前記正透過率に基づいて合成比率が定められた背景物体画像と、前記拡散透過率に基づいて合成比率が定められたぼけ画像とに基づいて、前記合成画像の重畳領域を生成することを特徴とする請求項7記載の画像処理装置。 Means for storing data indicating the regular transmittance and diffuse transmittance of the translucent object;
The image generating means includes
Determine the composition ratio of the background object image based on the regular transmittance, determine the composition ratio of the blurred image based on the diffuse transmittance,
A translucent object image with a composition ratio determined based on the transmissivity of the translucent object, a background object image with a composition ratio determined based on the regular transmittance, and a composition ratio based on the diffuse transmittance The image processing apparatus according to claim 7, wherein a superimposed region of the composite image is generated based on the determined blurred image.
コンピュータに実行されると、
第1の背景を用いて半透明物体を撮影して得た第1の半透明物体画像と、前記第1の背景とは明度が異なる第2の背景を用いて前記半透明物体を撮影して得た第2の半透明物体画像と、前記第1及び第2の背景と明度が異なり、且つ明度が実質的にゼロの第3の背景を用いて前記半透明物体を撮影して得た第3の半透明物体画像とを記憶手段に格納する処理と、
前記第1の半透明物体画像における前記半透明物体領域の画素値と、前記第2の半透明物体画像における前記半透明物体領域の画素値とに基づいて、前記半透明物体の透過率を画素ごとに推定する処理と、
前記第3の半透明物体画像における前記半透明物体領域の画素値に基づいて、前記半透明物体の拡散反射率を画素ごとに推定する処理と、
前記推定された前記半透明物体の画素ごとの透過率及び拡散反射率に基づいて、前記半透明物体の正透過率及び拡散透過率を、画素ごとに推定する処理と、が行われることを特徴とするコンピュータプログラム。 A computer program for image processing,
When executed on a computer,
Photographing the translucent object using a first translucent object image obtained by photographing a translucent object using the first background and a second background having a brightness different from that of the first background The obtained second translucent object image is obtained by photographing the translucent object using a third background having a lightness different from that of the first and second backgrounds and having substantially zero lightness. A process of storing the three translucent object images in the storage means;
Based on the pixel value of the semi-transparent object region in the first semi-transparent object image and the pixel value of the semi-transparent object region in the second semi-transparent object image, the transmittance of the semi-transparent object is defined as a pixel. Processing to estimate for each,
A process for estimating the diffuse reflectance of the translucent object for each pixel based on the pixel value of the translucent object region in the third translucent object image;
Based on the estimated transmissivity and diffuse reflectance of each pixel of the translucent object, a process of estimating the regular transmissivity and diffuse transmittance of the translucent object for each pixel is performed. A computer program.
コンピュータに実行されると、
前記半透明物体の3次元形状データと、前記背景物体の3次元形状データとを記憶手段に格納する処理と、
予め指定された、前記半透明物体と前記背景物体との相対的な位置関係に基づいて、前記重畳領域における前記半透明物体と前記背景物体との相対距離を算出する処理と、
前記半透明物体の3次元形状データに基づいて、半透明物体画像を生成する処理と、
前記背景物体の3次元形状データに基づいて、背景物体画像を生成する処理と、
前記半透明物体を撮影した画像から推定された、前記半透明物体の透過率を示すデータを記憶手段に格納する処理と、
前記半透明物体画像及び前記背景物体画像に基づいて前記合成画像を生成する手段であって、前記半透明物体の透過率に基づいて前記半透明物体画像の合成比率を定めるとともに、前記合成画像における前記重畳領域の背景物体の画像を、前記半透明物体と前記背景物体との相対距離に応じたぼけ具合にして前記合成画像を生成する処理と、が行われることを特徴とするコンピュータプログラム。 A computer program for generating a composite image including a translucent object and a background object located behind the translucent object, wherein at least a part of the translucent object overlaps the background object. ,
When executed on a computer,
Processing for storing the three-dimensional shape data of the translucent object and the three-dimensional shape data of the background object in a storage means;
A process of calculating a relative distance between the translucent object and the background object in the superimposed region based on a relative positional relationship between the translucent object and the background object specified in advance.
A process of generating a translucent object image based on the three-dimensional shape data of the translucent object;
Processing for generating a background object image based on the three-dimensional shape data of the background object;
A process for storing data indicating the transmissivity of the translucent object estimated from an image obtained by capturing the translucent object in a storage unit;
Means for generating the composite image based on the translucent object image and the background object image, and determining a composite ratio of the translucent object image based on the transmissivity of the translucent object; A computer program characterized by performing processing for generating an image of a background object in the superimposition area with a degree of blur according to a relative distance between the translucent object and the background object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007198073A JP2009031226A (en) | 2007-07-30 | 2007-07-30 | Image analysis apparatus and image generation apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007198073A JP2009031226A (en) | 2007-07-30 | 2007-07-30 | Image analysis apparatus and image generation apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009031226A true JP2009031226A (en) | 2009-02-12 |
Family
ID=40401870
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007198073A Pending JP2009031226A (en) | 2007-07-30 | 2007-07-30 | Image analysis apparatus and image generation apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009031226A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011257236A (en) * | 2010-06-08 | 2011-12-22 | Srl Inc | Specimen recognition device |
-
2007
- 2007-07-30 JP JP2007198073A patent/JP2009031226A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011257236A (en) * | 2010-06-08 | 2011-12-22 | Srl Inc | Specimen recognition device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20240320808A1 (en) | Learning-Based Lens Flare Removal | |
US9459820B2 (en) | Display processing apparatus, display processing method, and computer program product | |
JP4945642B2 (en) | Method and system for color correction of 3D image | |
JP7289653B2 (en) | Control device, endoscope imaging device, control method, program and endoscope system | |
US8310499B2 (en) | Balancing luminance disparity in a display by multiple projectors | |
JP5649367B2 (en) | Image processing apparatus and image processing method | |
Hincapié-Ramos et al. | SmartColor: Real-time color correction and contrast for optical see-through head-mounted displays | |
US10863082B2 (en) | Image processing apparatus, image processing method, and storage medium | |
US20130194254A1 (en) | Image processing apparatus, image processing method and program | |
US11967094B2 (en) | Detecting device, information processing device, detecting method, and information processing program | |
JP6028527B2 (en) | Display processing apparatus, display processing method, and program | |
JP2009164951A (en) | Imaging system, image processing apparatus, image processing method, and program | |
JP2012155624A (en) | Image output device, image display device, image output method, program and storage medium | |
CN111862293A (en) | Image processing device, storage medium, and image processing method | |
EP4235393B1 (en) | Image processing device, image processing method, and image processing program | |
JP2009031226A (en) | Image analysis apparatus and image generation apparatus | |
JP2009164949A (en) | Image processing apparatus, image processing method, and program | |
WO2018180860A1 (en) | Image processing device, image processing method, and program | |
KR102675906B1 (en) | A method of measuring a head up display ghost image and an apparatus of measuring a head up display ghost image | |
JP7634958B2 (en) | Generation device, generation method, and program | |
US11875447B1 (en) | Systems and methods for color correcting three-dimensional objects formed by point cloud data points | |
JP2009164950A (en) | Imaging system | |
JP2019129469A (en) | Image processing device | |
KR20250113193A (en) | A method of measuring a head up display ghost image and an apparatus of measuring a head up display ghost image | |
JP2025079935A (en) | Information processing device, information processing method, and program |