[go: up one dir, main page]

JP2009031226A - Image analysis apparatus and image generation apparatus - Google Patents

Image analysis apparatus and image generation apparatus Download PDF

Info

Publication number
JP2009031226A
JP2009031226A JP2007198073A JP2007198073A JP2009031226A JP 2009031226 A JP2009031226 A JP 2009031226A JP 2007198073 A JP2007198073 A JP 2007198073A JP 2007198073 A JP2007198073 A JP 2007198073A JP 2009031226 A JP2009031226 A JP 2009031226A
Authority
JP
Japan
Prior art keywords
image
background
translucent object
translucent
transmittance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007198073A
Other languages
Japanese (ja)
Inventor
Kenji Kobiyama
賢二 小檜山
Masahiko Morita
正彦 森田
Tatsuya Saito
達也 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keio University
Original Assignee
Keio University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keio University filed Critical Keio University
Priority to JP2007198073A priority Critical patent/JP2009031226A/en
Publication of JP2009031226A publication Critical patent/JP2009031226A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Image Generation (AREA)

Abstract

【課題】背景色に依存することなく、簡易な装置で未知な形状の半透明物体の光の透過及び拡散に関する性質を推定する。
【解決手段】画像解析装置1は、第1の半透明物体画像と、背景の明度が異なる第2の半透明物体画像と、背景の明度が実質的にゼロの第3の半透明物体画像とを記憶する画像データバッファ21と、第1の半透明物体画像及び第2の半透明物体画像に基づいて半透明物体の透過率を推定する透過率・色推定部11と、前記第3の半透明物体画像に基づいて、前記半透明物体の拡散反射率を推定する拡散反射率推定部13と、半透明物体の透過率を、半透明物体の正透過率及び拡散透過率に分離する透過率分離部14とを備える。
【選択図】図1
Kind Code: A1 A light transmission and diffusion property of a semi-transparent object having an unknown shape is estimated with a simple device without depending on a background color.
An image analysis apparatus includes a first translucent object image, a second translucent object image having a different background brightness, and a third translucent object image having a background brightness of substantially zero. An image data buffer 21, a transmittance / color estimation unit 11 for estimating the transmittance of the translucent object based on the first translucent object image and the second translucent object image, and the third semitransparent object image. Based on the transparent object image, a diffuse reflectance estimating unit 13 that estimates the diffuse reflectance of the translucent object, and a transmittance that separates the transmissivity of the translucent object into a regular transmittance and a diffuse transmittance of the translucent object And a separation unit 14.
[Selection] Figure 1

Description

本発明は、半透明物体をよりリアルに表現するための画像処理技術に関する。   The present invention relates to an image processing technique for expressing a translucent object more realistically.

従来、コンピュータグラフィックス技術において、透過率は物体の形状及びその物体の光学特性に基づいて決定したり、あるいは経験則に基づいて決定したりしていた。   Conventionally, in computer graphics technology, the transmittance has been determined based on the shape of the object and the optical characteristics of the object, or has been determined based on empirical rules.

最近では背景に既知色もしくは既知パターンを用いて、光学特性が未知な物体から、画素ごとの透過率を測定する方法が提案されている(例えば、非特許文献1,2)。   Recently, a method for measuring the transmittance of each pixel from an object with unknown optical characteristics using a known color or a known pattern as a background has been proposed (for example, Non-Patent Documents 1 and 2).

またレーザー光を用いた光学特性の測定方法も提案されている(例えば、特許文献1)。
特開平7−104458号公報 風間直子, “CGのための透明物体の光学特性の測定およびその表現方法”, 奈良先端科学技術大学院大学 修士論文, NAIST-IS-MT9751030 NTT生活環境研究所, “光沢のある物や半透明な物の3次元CGデータを自動生成するシステムを開発”, NTT研究成果年報誌, 2001
A method for measuring optical characteristics using laser light has also been proposed (for example, Patent Document 1).
Japanese Patent Laid-Open No. 7-104458 Naoko Kazama, “Measurement of optical properties of transparent objects for CG and its representation method”, Master's thesis, Nara Institute of Science and Technology, NAIST-IS-MT9751030 NTT Life Environment Research Laboratories, “Developing a system that automatically generates 3D CG data for glossy and translucent objects,” NTT Research Results Annual Report, 2001

ここで、非特許文献1のように既知背景色を用いた場合、測定したい物体と背景色に同じ色合いがある場合、その箇所を半透明であると誤認識する場合がある。また背景色によって物体そのものの色合いが変化してしまい、この誤認識を完全に除去することは難しい。   Here, when a known background color is used as in Non-Patent Document 1, if the object to be measured and the background color have the same hue, the location may be erroneously recognized as being translucent. Also, the color of the object itself changes depending on the background color, and it is difficult to completely eliminate this erroneous recognition.

一方、非特許文献2のように既知パターンを用いた場合、物体の形状を既知として光線追跡を行うため、形状の誤差は光線追跡の誤差を招き、測定結果に多大な影響を及ぼしかねない。   On the other hand, when a known pattern is used as in Non-Patent Document 2, ray tracing is performed with the shape of the object as known, so that an error in the shape causes an error in ray tracing and may greatly affect the measurement result.

また、特許文献1のようにレーザー光を用いた方法の場合、装置が大規模になるため3次元画像計測装置に組み込むといったことは難しい。   Further, in the case of a method using laser light as in Patent Document 1, it is difficult to incorporate the apparatus into a three-dimensional image measurement apparatus because the apparatus becomes large-scale.

そこで、本発明の目的は、背景色に依存することなく、簡易な装置で未知な形状の半透明物体の光の透過及び拡散に関する性質を推定することである。   Accordingly, an object of the present invention is to estimate the properties of light transmission and diffusion of a translucent object having an unknown shape with a simple device without depending on the background color.

本発明の別の目的は、半透明物体を撮影した画像から推定された透過に関する性質を用いて、その半透明物体をよりリアルに表現することである。   Another object of the present invention is to express the translucent object more realistically by using the property relating to transmission estimated from an image obtained by capturing the translucent object.

本発明の一つの実施態様に従う画像処理装置は、第1の背景を用いて半透明物体を撮影して得た第1の半透明物体画像と、前記第1の背景とは明度が異なる第2の背景を用いて前記半透明物体を撮影して得た第2の半透明物体画像と、前記第1及び第2の背景と明度が異なり、且つ明度が実質的にゼロの第3の背景を用いて前記半透明物体を撮影して得た第3の半透明物体画像とを記憶する手段と、前記第1の半透明物体画像における前記半透明物体領域の画素値と、前記第2の半透明物体画像における前記半透明物体領域の画素値とに基づいて、前記半透明物体の透過率を画素ごとに推定する透過率推定手段と、前記第3の半透明物体画像における前記半透明物体領域の画素値に基づいて、前記半透明物体の拡散反射率を画素ごとに推定する拡散反射率推定手段と、前記推定された前記半透明物体の画素ごとの透過率及び拡散反射率に基づいて、前記半透明物体の正透過率及び拡散透過率を、画素ごとに推定する正透過率及び拡散透過率推定手段と、前記推定された画素ごとの正透過率、拡散透過率、及び拡散反射率の各データを記憶する手段と、を備える。   An image processing apparatus according to an embodiment of the present invention provides a first translucent object image obtained by photographing a translucent object using a first background, and a second lightness different from that of the first background. A second translucent object image obtained by photographing the translucent object using the background of the first background, and a third background having a brightness different from that of the first and second backgrounds and substantially zero in brightness. Means for storing a third translucent object image obtained by photographing the translucent object, a pixel value of the translucent object region in the first translucent object image, and the second semitransparent object image. Based on the pixel value of the translucent object area in the transparent object image, the transmissivity estimating means for estimating the transmissivity of the translucent object for each pixel, and the translucent object area in the third translucent object image The diffuse reflectance of the translucent object is estimated for each pixel based on the pixel value of Based on the diffuse reflectance estimation means and the estimated transmissivity and diffuse reflectance of the translucent object for each pixel, regular transmissivity for estimating the transmissivity and diffuse transmissivity of the translucent object for each pixel Rate and diffuse transmittance estimating means, and means for storing each data of the estimated regular transmittance, diffuse transmittance, and diffuse reflectance for each pixel.

好適な実施態様では、前記第1の背景を撮影して得た第1の背景画像と、前記第2の背景を撮影して得た第2の背景画像とを記憶する手段をさらに備え、前記透過率推定手段は、前記第1の背景画像を用いて前記第1の半透明物体画像から前記第1の背景の影響を除去した画像と、前記第2の背景画像を用いて前記第2の半透明物体画像から前記第2の背景の影響を除去した画像とに基づいて、画素ごとに前記半透明物体の透過率を推定するようにしてもよい。   In a preferred embodiment, the apparatus further comprises means for storing a first background image obtained by photographing the first background and a second background image obtained by photographing the second background, The transmittance estimation means uses the first background image to remove the influence of the first background from the first translucent object image, and uses the second background image to perform the second operation. The transmissivity of the translucent object may be estimated for each pixel based on an image obtained by removing the influence of the second background from the translucent object image.

好適な実施態様では、前記透過率推定手段は、第1の半透明物体画像の処理対象画素の画素値をB、第2の半透明物体画像の前記処理対象画素と対応する画素の各画素値をBとし、第1の背景画像の各画素値をBQ1、第2の背景画像の前記処理対象画素と対応する画素の画素値をBQ2としたとき、次の式により、前記半透明物体の領域について、画素ごと、かつ、赤、緑、青ごとの透過率αを推定することもできる。
=(1−α)B+αBQ1
=(1−α)B+αBQ2
:半透明物体の処理対象画素の固有値
In a preferred embodiment, the transmittance estimating means sets the pixel value of the processing target pixel of the first translucent object image to B 1 and each pixel of the pixel corresponding to the processing target pixel of the second translucent object image. When the value is B 2 , each pixel value of the first background image is B Q1 , and the pixel value of the pixel corresponding to the processing target pixel of the second background image is B Q2 , For the transparent object region, it is also possible to estimate the transmittance α for each pixel and for each of red, green, and blue.
B 1 = (1−α) B P + αB Q1
B 2 = (1−α) B P + αB Q2
B P : Eigenvalue of pixel to be processed of translucent object

好適な実施態様では、前記透過率推定手段は、さらに、前記半透明物体の領域内の各画素について、前記固有値Bをさらに推定してもよい。 In a preferred embodiment, the transmittance estimation means may further estimate the eigenvalue BP for each pixel in the region of the translucent object.

好適な実施態様では、正透過率及び拡散透過率推定手段は、透過率α、正透過率i、拡散透過率k、拡散反射率kとしたとき、
α>kであれば、k=kr、i=α−kと推定し、
α≦kであれば、k=αi=0と推定するようにしてもよい。
In a preferred embodiment, specular transmittance and diffuse transmittance estimating means, transmittance alpha, specular transmittance i, diffuse transmittance k t, when the diffuse reflectance k r,
If α> k r, it estimates that k t = k r, i = α-k t,
If α ≦ k r, it may be estimated that k t = α and i = 0.

本発明の一つの実施態様に従う画像処理装置は、半透明物体と、前記半透明物体の背後に位置する背景物体とを含み、前記半透明物体の少なくとも一部が前記背景物体と重なる重畳領域を有する合成画像を生成する装置であって、前記半透明物体の3次元形状データと、前記背景物体の3次元形状データとを記憶する手段と、予め指定された、前記半透明物体と前記背景物体との相対的な位置関係に基づいて、前記重畳領域における前記半透明物体と前記背景物体との相対距離を算出する手段と、前記半透明物体の3次元形状データに基づいて、半透明物体画像を生成する第1のレンダリング手段と、前記背景物体の3次元形状データに基づいて、背景物体画像を生成する第2のレンダリング手段と、前記半透明物体を撮影した画像から推定された、前記半透明物体の透過率を示すデータを記憶する手段と、前記半透明物体画像及び前記背景物体画像に基づいて前記合成画像を生成する手段であって、前記半透明物体の透過率に基づいて前記半透明物体画像の合成比率を定めるとともに、前記合成画像における前記重畳領域の背景物体の画像を、前記半透明物体と前記背景物体との相対距離に応じたぼけ具合にして前記合成画像を生成する画像生成手段と、を備える。   An image processing apparatus according to an embodiment of the present invention includes a translucent object and a background object located behind the translucent object, and an overlapping region in which at least a part of the translucent object overlaps the background object. An apparatus for generating a composite image having: means for storing the three-dimensional shape data of the semi-transparent object and the three-dimensional shape data of the background object; the semi-transparent object and the background object designated in advance; Means for calculating the relative distance between the semi-transparent object and the background object in the superimposition region based on the relative positional relationship between the semi-transparent object and the semi-transparent object image based on the three-dimensional shape data of the semi-transparent object. Estimated from a first rendering means for generating image, a second rendering means for generating a background object image based on the three-dimensional shape data of the background object, and an image obtained by photographing the translucent object Means for storing data indicating the transmissivity of the translucent object, and means for generating the composite image based on the translucent object image and the background object image, the transmissivity of the translucent object The composition ratio of the semi-transparent object image is determined based on the image, and the image of the background object in the superimposed region in the composite image is blurred according to the relative distance between the semi-transparent object and the background object. Image generating means for generating an image.

好適な実施態様では、前記画像生成手段は、前記重畳領域の背景物体画像を、前記半透明物体と前記背景物体との相対距離に応じてぼかしたぼけ画像を生成し、前記半透明物体の透過率に基づいて合成比率が定められた前記半透明物体画像と、前記ぼけ画像とに基づいて、前記合成画像の重畳領域を生成するようにしてもよい。   In a preferred embodiment, the image generation means generates a blurred image of the background object image of the superimposed region according to a relative distance between the translucent object and the background object, and transmits the translucent object. An overlap region of the composite image may be generated based on the translucent object image in which the composite ratio is determined based on the rate and the blurred image.

好適な実施態様では、前記半透明物体の正透過率及び拡散透過率を示すデータを記憶する手段をさらに備え、前記画像生成手段は、前記正透過率に基づいて前記背景物体画像の合成比率を定め、前記拡散透過率に基づいて前記ぼけ画像の合成比率を定め、前記半透明物体の透過率に基づいて合成比率が定められた半透明物体画像と、前記正透過率に基づいて合成比率が定められた背景物体画像と、前記拡散透過率に基づいて合成比率が定められたぼけ画像とに基づいて、前記合成画像の重畳領域を生成するようにしてもよい。   In a preferred embodiment, the apparatus further comprises means for storing data indicating the regular transmittance and the diffuse transmittance of the translucent object, and the image generating means calculates the composition ratio of the background object image based on the regular transmittance. Determining a composition ratio of the blurred image based on the diffuse transmittance, a translucent object image in which the composition ratio is determined based on the transmittance of the semitransparent object, and a composition ratio based on the regular transmittance. An overlap region of the composite image may be generated based on the determined background object image and the blurred image in which the composite ratio is determined based on the diffuse transmittance.

本発明の一つの実施態様に従う画像処理方法は、第1の背景を用いて半透明物体を撮影して得た第1の半透明物体画像と、前記第1の背景とは明度が異なる第2の背景を用いて前記半透明物体を撮影して得た第2の半透明物体画像と、前記第1及び第2の背景と明度が異なり、且つ明度が実質的にゼロの第3の背景を用いて前記半透明物体を撮影して得た第3の半透明物体画像とを記憶手段に格納する処理と、前記第1の半透明物体画像における前記半透明物体領域の画素値と、前記第2の半透明物体画像における前記半透明物体領域の画素値とに基づいて、前記半透明物体の透過率を所定の領域ごとに推定する処理と、前記第3の半透明物体画像における前記半透明物体領域の画素値に基づいて、前記半透明物体の拡散反射率を前記所定の領域ごとに推定する処理と、前記推定された前記半透明物体の前記所定の領域ごとの透過率及び拡散反射率に基づいて、前記半透明物体の正透過率及び拡散透過率を、前記所定の領域ごとに推定する処理と、を行う。   An image processing method according to an embodiment of the present invention includes a first translucent object image obtained by photographing a translucent object using the first background, and a second lightness different from that of the first background. A second translucent object image obtained by photographing the translucent object using the background of the first background, and a third background having a brightness different from that of the first and second backgrounds and substantially zero in brightness. A process of storing a third translucent object image obtained by photographing the translucent object using the storage means, a pixel value of the translucent object region in the first translucent object image, and the first Processing for estimating the transmissivity of the translucent object for each predetermined area based on the pixel value of the translucent object area in the second translucent object image, and the translucent in the third translucent object image Based on the pixel value of the object region, the diffuse reflectance of the translucent object is determined as the predetermined value. Based on the processing to estimate for each area, and the estimated transmissivity and diffuse reflectance of the predetermined area of the semitransparent object, the regular transmittance and diffuse transmittance of the translucent object A process for estimating each area is performed.

本発明の一つの実施態様に従う合成画像の生成方法は、半透明物体と、前記半透明物体の背後に位置する背景物体とを含み、前記半透明物体の少なくとも一部が前記背景物体と重なる重畳領域を有する合成画像を生成する方法であって、前記半透明物体の3次元形状データと、前記背景物体の3次元形状データとを記憶手段に格納する処理と、予め指定された、前記半透明物体と前記背景物体との相対的な位置関係に基づいて、前記重畳領域における前記半透明物体と前記背景物体との相対距離を算出する処理と、前記半透明物体の3次元形状データに基づいて、半透明物体画像を生成する処理と、前記背景物体の3次元形状データに基づいて、背景物体画像を生成する処理と、前記半透明物体を撮影した画像から推定された、前記半透明物体の透過率を示すデータを記憶手段に格納する処理と、前記半透明物体画像及び前記背景物体画像に基づいて前記合成画像を生成する手段であって、前記半透明物体の透過率に基づいて前記半透明物体画像の合成比率を定めるとともに、前記合成画像における前記重畳領域の背景物体の画像を、前記半透明物体と前記背景物体との相対距離に応じたぼけ具合にして前記合成画像を生成する処理と、を行う。   A method for generating a composite image according to an embodiment of the present invention includes a translucent object and a background object located behind the translucent object, and at least a part of the translucent object overlaps the background object. A method for generating a composite image having a region, wherein the semi-transparent object three-dimensional shape data and the background object three-dimensional shape data are stored in a storage means, and the semi-transparent specified in advance Based on the relative positional relationship between the object and the background object, based on the process of calculating the relative distance between the translucent object and the background object in the overlap region, and based on the three-dimensional shape data of the translucent object A process of generating a translucent object image, a process of generating a background object image based on the three-dimensional shape data of the background object, and the translucent object estimated from an image obtained by photographing the translucent object Storing the data indicating the transmittance of the image in the storage means, and means for generating the composite image based on the translucent object image and the background object image, and based on the transmissivity of the translucent object The composition ratio of the semi-transparent object image is determined, and the image of the background object in the superimposed area in the composite image is blurred according to the relative distance between the semi-transparent object and the background object to generate the composite image. And processing.

以下、本発明の一つの実施形態に係る画像処理装置について、図面を参照して説明する。   Hereinafter, an image processing apparatus according to an embodiment of the present invention will be described with reference to the drawings.

本実施形態に係る画像処理装置は、図1にその構成を示す画像解析装置1及び画像撮影装置3と、図6にその構成を示す画像生成装置7とを有する。   The image processing apparatus according to the present embodiment includes an image analysis apparatus 1 and an image capturing apparatus 3 whose configurations are shown in FIG. 1, and an image generation apparatus 7 whose configuration is shown in FIG.

画像解析装置1及び画像生成装置7は、いずれも所定のコンピュータシステムにより構成され、以下に説明する画像解析装置1及び画像生成装置7の構成要素または機能は、例えば、所定のハードウェア及びソフトウェア(コンピュータプログラム)により実現することができる。   The image analysis apparatus 1 and the image generation apparatus 7 are both configured by a predetermined computer system. The components or functions of the image analysis apparatus 1 and the image generation apparatus 7 described below are, for example, predetermined hardware and software ( It can be realized by a computer program.

図1は、本実施形態に係る画像解析装置1及び画像撮影装置3の構成を示す。   FIG. 1 shows a configuration of an image analysis device 1 and an image photographing device 3 according to the present embodiment.

画像撮影装置3は、天井照明部31と、画像センサ32と、背面照明部33と、フィルタテーブル35と、試料テーブル37とを備える。   The image capturing apparatus 3 includes a ceiling illumination unit 31, an image sensor 32, a back illumination unit 33, a filter table 35, and a sample table 37.

天井照明部31は、蛍光灯31a、31bと照明拡散板31cによって構成されている。天井照明部31は、画像センサ32の視野内において試料テーブル37に配置された試料である半透明物体5を照らす。   The ceiling illumination unit 31 includes fluorescent lamps 31a and 31b and an illumination diffusion plate 31c. The ceiling illumination unit 31 illuminates the translucent object 5 that is a sample disposed on the sample table 37 within the field of view of the image sensor 32.

背面照明部33は、画像センサ32の光軸上に位置するフィルタテーブル35上のフィルタ35a〜35cを、画像センサ32に対して背面から照らす。各フィルタ35a〜35cは、それぞれが画像センサ32が撮影する画像の背景となる。   The back illumination unit 33 illuminates the filters 35 a to 35 c on the filter table 35 located on the optical axis of the image sensor 32 from the back side. Each of the filters 35a to 35c serves as a background of an image captured by the image sensor 32.

図2は、フィルタテーブル35の一例を示す。フィルタテーブル35は、円形のテーブルに複数(同図では3つ)の異なった濃度フィルタが配置されている。本実施形態では、濃度0%(背面照明をすべて透過)のフィルタ35a、濃度1%〜99%(背面照明を一部遮断)のフィルタ35b、濃度100%(背面照明をすべて遮断)のフィルタ35cが設置されている。つまり、各フィルタ35a〜35cを背景としたとき、その背景の明度は互いに異なる。特に、フィルタ35cは明度が実質的にゼロである。以下、フィルタ35aを用いた場合を「白背景」、フィルタ35bを用いた場合を「灰背景」、フィルタ35cを用いた場合を「黒背景」と呼ぶ。   FIG. 2 shows an example of the filter table 35. In the filter table 35, a plurality of (three in the figure) different density filters are arranged on a circular table. In this embodiment, a filter 35a having a density of 0% (all the backlight is transmitted), a filter 35b having a density of 1% to 99% (a part of the backlight is partially blocked), and a filter 35c having a density of 100% (all the backlight is blocked). Is installed. That is, when the filters 35a to 35c are used as the background, the brightness of the background is different. In particular, the lightness of the filter 35c is substantially zero. Hereinafter, the case where the filter 35a is used is called “white background”, the case where the filter 35b is used is called “gray background”, and the case where the filter 35c is used is called “black background”.

なお、濃度0%のフィルタ35aは、何もフィルタを有しない空洞でよい。また、フィルタ35bは、例えば濃度50%のものでよい。   The filter 35a having a concentration of 0% may be a cavity having no filter. Further, the filter 35b may have a density of 50%, for example.

図3は、試料テーブル37の一例を示す。試料テーブル37は、円形のテーブルに、測定対象の試料として半透明な特性を有する半透明物体5が戴置された試料領域37aと、拡散反射率が既知な標準拡散反射板(グレイカード)37bと、空洞領域37cとが設けられている。   FIG. 3 shows an example of the sample table 37. The sample table 37 includes a sample region 37a in which a semitransparent object 5 having a semitransparent characteristic as a sample to be measured is placed on a circular table, and a standard diffuse reflector (gray card) 37b having a known diffuse reflectance. And a hollow region 37c.

画像撮影装置3において、フィルタテーブル35及び試料テーブル37のそれぞれの中心は、共通の軸上に設置されている。フィルタテーブル35及び試料テーブル37は、その中心軸を中心にそれぞれ回転可能である。フィルタテーブル35及び試料テーブル37の位置は、手動で定めても良いし、図示しない制御装置によって制御してもよい。   In the image capturing apparatus 3, the centers of the filter table 35 and the sample table 37 are installed on a common axis. The filter table 35 and the sample table 37 are rotatable about their central axes. The positions of the filter table 35 and the sample table 37 may be determined manually or may be controlled by a control device (not shown).

本実施形態では、フィルタテーブル35及び試料テーブル37の位置をそれぞれ定めて以下の画像を撮影する。撮影された画像のデータは、画像データバッファ21に格納される。
画像1:白背景試料画像(試料領域37a+フィルタ35a)
画像2:灰背景試料画像(試料領域37a+フィルタ35b)
画像3:白背景画像(空洞領域37c+フィルタ35a)
画像4:灰背景画像(空洞領域37c+フィルタ35b)
画像5:黒背景画像(空洞領域37c+フィルタ35c)
画像6:標準拡散画像(標準拡散反射板37b)
In this embodiment, the positions of the filter table 35 and the sample table 37 are determined, and the following images are taken. The captured image data is stored in the image data buffer 21.
Image 1: White background sample image (sample region 37a + filter 35a)
Image 2: Gray background sample image (sample region 37a + filter 35b)
Image 3: White background image (cavity region 37c + filter 35a)
Image 4: Gray background image (cavity region 37c + filter 35b)
Image 5: Black background image (cavity region 37c + filter 35c)
Image 6: Standard diffuse image (standard diffuse reflector 37b)

なお、これらの画像を撮影するときは、天井照明及び背面照明の条件はすべて同一である。さらに、画像1及び画像2において、半透明物体5の位置は同一として撮影する。この結果、画像1及び画像2の同一位置の画素には、半透明物体5の同一部位が、異なる背景で写っている。また、画像1と画像3の相違は、試料が存在するかだけであり、背景の画像は共通である。画像2と画像4の相違も同様に試料が存在するかだけであり、背景の画像は共通である。   Note that when these images are taken, the conditions for the ceiling illumination and the back illumination are all the same. Further, in the image 1 and the image 2, the semi-transparent object 5 is photographed with the same position. As a result, the same part of the translucent object 5 appears in different backgrounds in the pixels at the same positions in the image 1 and the image 2. Further, the difference between the image 1 and the image 3 is only whether a sample is present, and the background image is common. Similarly, the difference between the image 2 and the image 4 is only the presence of the sample, and the background image is common.

従って、以下に説明する各処理では、各画像の同一位置の画素同士を比較することによって、各画素と対応する位置の半透明物体の透過率等を推定することができる。   Therefore, in each process described below, by comparing pixels at the same position in each image, it is possible to estimate the transmissivity and the like of a translucent object at a position corresponding to each pixel.

再び図1を参照して、画像解析装置1について説明する。   The image analysis apparatus 1 will be described with reference to FIG. 1 again.

画像解析装置1は、透過率・色推定部11と、天井照明推定部12と、拡散反射率推定部13と、透過率分離処理部14と、画像データバッファ21と、色データ記憶部22と、透過率データ記憶部23と、天井照明データ記憶部24と、拡散反射率データ記憶部25と、正透過率データ記憶部26と、拡散透過率データ記憶部27とを有する。   The image analysis device 1 includes a transmittance / color estimation unit 11, a ceiling illumination estimation unit 12, a diffuse reflectance estimation unit 13, a transmittance separation processing unit 14, an image data buffer 21, and a color data storage unit 22. , A transmittance data storage unit 23, a ceiling illumination data storage unit 24, a diffuse reflectance data storage unit 25, a regular transmittance data storage unit 26, and a diffuse transmittance data storage unit 27.

画像データバッファ21は、画像撮影装置3によって撮影された画像データを記憶する。本実施形態では、上述した各画像1〜6の画像データが画像データバッファ21に記憶される。   The image data buffer 21 stores image data photographed by the image photographing device 3. In the present embodiment, the image data of each of the images 1 to 6 described above is stored in the image data buffer 21.

透過率・色推定部11は、画像データバッファ21に記憶されている画像データに基づいて、半透明物体5の透過率及び色を推定する。透過率・色推定部11によって推定された色及び透過率は、それぞれ、色データ記憶部22及び透過率データ記憶部23に格納される。   The transmittance / color estimation unit 11 estimates the transmittance and color of the translucent object 5 based on the image data stored in the image data buffer 21. The color and transmittance estimated by the transmittance / color estimation unit 11 are stored in the color data storage unit 22 and the transmittance data storage unit 23, respectively.

透過率・色推定部11は、例えば、R(赤)G(緑)B(青)のそれぞれについて、透過率α及び半透明物体5固有の画素値Bを推定する。このRGB別の透過率αが透過率データ記憶部23に格納され、半透明物体5固有の画素値Bが色データ記憶部22に格納される。 The transmittance / color estimation unit 11 estimates the transmittance α and the pixel value BP unique to the translucent object 5 for each of R (red), G (green), and B (blue), for example. The RGB-specific transmittance α is stored in the transmittance data storage unit 23, and the pixel value BP unique to the translucent object 5 is stored in the color data storage unit 22.

まず、画像データバッファ21に記憶されている、各画像データのRGB別画素値Bは、以下の式で表される。
B=(1−α)B+αB
B:画素値
α:透過率
:半透明物体固有の画素値
:背景画像の画素値
First, the RGB pixel value B of each image data stored in the image data buffer 21 is expressed by the following equation.
B = (1-α) B P + αB Q
B: Pixel value α: Transmittance B P : Pixel value peculiar to semi-transparent object B Q : Pixel value of background image

ここで、白背景試料画像(画像1)のRGB別画素値Bは、式(1)で表される。
=(1−α)B+αBQ1 ・・・(1)
Here, the RGB pixel value B 1 of the white background sample image (image 1) is expressed by equation (1).
B 1 = (1−α) B P + αB Q1 (1)

また、白背景画像(画像3)のRGB別画素値Bは、白背景画像を直接撮影したものであるから、式(2)で表される。
=BQ1 ・・・(2)
Further, RGB specific pixel value B 3 of white background image (image 3), since it was taken a white background image directly represented by the formula (2).
B 3 = B Q1 (2)

これと同様に、白背景試料画像(画像2)及び灰背景画像(画像4)のRGB別画素値B、Bは、それぞれ式(3)(4)で表される。
=(1−α)B+αBQ2 ・・・(3)
=BQ2 ・・・(4)
Similarly, RGB pixel values B 2 and B 4 of the white background sample image (image 2) and the gray background image (image 4) are expressed by equations (3) and (4), respectively.
B 2 = (1−α) B P + αB Q2 (3)
B 4 = B Q2 (4)

式(1)〜(4)により、各画素についてRGB別の透過率αと、RGB別の半透明物体固有の画素値Bが求まる。 The equation (1) to (4), the RGB-specific transmittance alpha, RGB separate translucent objects specific pixel value B P is obtained for each pixel.

天井照明推定部12は、画像データバッファ21に記憶されている標準拡散画像(画像6)の画像データに基づいて、天井照明光が画像に与える影響を推定する。推定された天井照明光が画像に与える影響を示す天井照明データは、天井照明データ記憶部24に格納される。   The ceiling illumination estimation unit 12 estimates the influence of the ceiling illumination light on the image based on the image data of the standard diffusion image (image 6) stored in the image data buffer 21. Ceiling illumination data indicating the effect of the estimated ceiling illumination light on the image is stored in the ceiling illumination data storage unit 24.

標準拡散画像(画像6)は、透過光が存在しないので、このRGB別画素値Bは、式(5)で表される。
=k ・・・(5)
:天井照明データ
:標準拡散板の拡散反射率(既知)
Standard diffusion images (image 6), since the transmitted light does not exist, the RGB specific pixel value B 6 is expressed by Equation (5).
B 6 = k N B U (5)
B U : Ceiling lighting data k N : Diffuse reflectance of standard diffuser (known)

式(5)により、各画素についてRGB別の天井照明データBが求まる。この天井照明データBは、天井照明データ記憶部24に格納される。 The equation (5), RGB separate ceiling illumination data B U is determined for each pixel. The ceiling illumination data BU is stored in the ceiling illumination data storage unit 24.

拡散反射率推定部13は、天井照明データと画像データバッファ21に記憶されている画像データとに基づいて、半透明物体5の拡散反射率kを推定する。推定された拡散反射率kは、拡散反射率データ記憶部25に格納される。 Diffuse reflectance estimation unit 13, based on the image data stored in the ceiling illumination data and image data buffer 21, estimates the diffuse reflectance k r of the translucent objects 5. The estimated diffuse reflectance kr is stored in the diffuse reflectance data storage unit 25.

ここで、黒背景画像(画像5)も透過光が存在しないので、このRGB別画素値Bは式(6)で表される。
=k ・・・(6)
:拡散反射率
Since a black background image (image 5) the transmitted light does not exist, the RGB specific pixel value B 5 is represented by the formula (6).
B 5 = k r B U (6)
k r : diffuse reflectance

従って、式(5)から求めた天井照明データ及び式(6)から、各画素についてRGB別の拡散反射率kが求まる。この各画素のRGB別の拡散反射率kは、拡散反射率データ記憶部25に格納される。 Therefore, from equation ceiling illumination data and equations obtained from (5) (6), RGB separate diffuse reflectance k r is determined for each pixel. The RGB separate diffuse reflectance k r of each pixel is stored in the diffuse reflectance data storage 25.

透過率分離処理部14は、透過率データ記憶部23に格納されている透過率データに基づいて、各画素についてRGB別の透過率αを正透過率iと拡散透過率kに分離する。分離された各画素についてRGB別の正透過率i及び拡散透過率kは、それぞれ正透過率データ記憶部26及び拡散透過率データ記憶部27に格納される。 Transmittance separation processing section 14, based on the transmittance data stored in the transmission data storage unit 23, separates the RGB separate transmittance α in specular transmittance i and diffuse transmittance k t for each pixel. For each separated pixel, the regular transmittance i and diffuse transmittance k t for each RGB are stored in the regular transmittance data storage unit 26 and the diffuse transmittance data storage unit 27, respectively.

ここで、図4を用いて、透過率α、正透過率i及び拡散透過率kについて説明する。 Here, the transmittance α, the regular transmittance i, and the diffuse transmittance kt will be described with reference to FIG.

図4Aに示すように、半透明物体の場合、背面から入射した光の一部が正面側へ透過する。このときの入射光強度に対する透過光強度の割合が透過率αである。   As shown in FIG. 4A, in the case of a translucent object, part of the light incident from the back surface is transmitted to the front surface side. The ratio of the transmitted light intensity to the incident light intensity at this time is the transmittance α.

また、透過には、入射光がそのまま向きを変えずに透過する正透過と、入射光が拡散しながら透過する拡散透過とがある。ここで、透過率α、正透過率i及び拡散透過率kは、一般には式(7)の関係を満たす。
α=i+k ・・・(7)
また、図4Bに示すように、半透明物体に正面から入射した光は、半透明物体の表面で拡散しながら反射する。入射光の強度に対する拡散反射光の強度が拡散反射率kである。
Transmission includes normal transmission in which incident light is transmitted without changing the direction and diffuse transmission in which incident light is transmitted while diffusing. Here, the transmittance alpha, specular transmittance i and diffuse transmittance k t is generally satisfy the relationship of equation (7).
α = i + k t (7)
Further, as shown in FIG. 4B, the light incident on the translucent object from the front is reflected while being diffused on the surface of the translucent object. The intensity of the diffuse reflected light to the intensity of the incident light is diffuse reflectance k r.

上記の関係に基づいて、本実施形態では、透過率分離処理部14は以下のようにして各画素についてRGB別の透過率αを正透過率iと拡散透過率kに分離する。 Based on the above relation, in this embodiment, it separates the RGB separate transmittance α For transmittance separation processing unit 14 as follows each pixel specular transmittance i and diffuse transmittance k t.

まず、透過率αが拡散反射率kよりも大きい場合(例えば半透明物体が非常に薄い場合など)は、透過光は図5Aに示すようになっていると推測できる。つまり、比較的大きな正透過に対して、拡散透過は小さい。そこで、拡散透過率kは拡散反射率kに等しいと考える。その結果、透過率α、正透過率i及び拡散透過率kは、式(8)、(9)となる。
=k ・・・(8)
i=α−k ・・・(9)
ただし、α>k
First, if the transmittance α is larger than the diffusion reflectance k r (e.g. translucent objects such as when very thin), the transmitted light can be estimated and is as shown in Figure 5A. That is, diffuse transmission is small compared to relatively large regular transmission. Therefore, diffuse transmittance k t is considered to be equal to the diffuse reflectance k r. As a result, the transmittance α, the regular transmittance i, and the diffuse transmittance kt are expressed by equations (8) and (9).
k t = k r (8)
i = α−k t (9)
Where α> kr

一方、透過率αが拡散反射率k以下である場合(例えば、半透明物体が比較的厚い場合など)は、透過光は図5Bに示すようになっていると推測できる。つまり、正透過は極めて小さいので無視することが可能であり、透過光はすべてが拡散透過によるものと考える。その結果、透過率α、正透過率i及び拡散透過率kは、式(10)、(11)となる。
=α ・・・(10)
i=0 ・・・(11)
ただし、α≦k
On the other hand, if the transmittance α is less diffuse reflectance k r (for example, if a semi-transparent object is relatively thick, etc.), the transmitted light can be inferred that is as shown in Figure 5B. In other words, the regular transmission is extremely small and can be ignored, and all the transmitted light is considered to be diffusely transmitted. As a result, the transmittance α, the regular transmittance i, and the diffuse transmittance kt are expressed by equations (10) and (11).
k t = α (10)
i = 0 (11)
However, α ≦ k r

上述した本実施形態に係る画像解析装置1及び画像撮影装置3によれば、背景色に依存することなく、かつ、簡易な装置で未知な形状の半透明物体の光の透過及び拡散に関する性質を推定することができる。   According to the image analysis apparatus 1 and the image capturing apparatus 3 according to the above-described embodiment, the properties relating to the transmission and diffusion of light of a translucent object having an unknown shape can be obtained with a simple apparatus without depending on the background color. Can be estimated.

次に、図6は本実施形態に係る画像生成装置7の構成を示す。同図に示す画像生成装置7は、上述した画像撮影装置3で撮影し、画像解析装置1で処理を行った半透明物体の透過率などを用いて、その半透明物体と所定の背景物体の画像とを重ねた合成画像を生成する。ただし、画像生成装置7は、画像撮影装置3及び画像解析装置1以外の装置を用いて推定した透過率等を用いて合成画像を生成することもできる。このとき、実際に半透明物体を撮影した画像から推定された透過率等を用いても良い。   Next, FIG. 6 shows a configuration of the image generation apparatus 7 according to the present embodiment. The image generation apparatus 7 shown in the figure uses the transmissivity of the translucent object photographed by the above-described image photographing apparatus 3 and processed by the image analysis apparatus 1, and the like of the translucent object and a predetermined background object. A composite image is generated by superimposing the image. However, the image generation device 7 can also generate a composite image using the transmittance estimated using a device other than the image capturing device 3 and the image analysis device 1. At this time, the transmittance estimated from an image obtained by actually capturing a translucent object may be used.

また、合成画像を生成するとき、半透明物体と背景物体との相対的な位置関係は予め指定されている。本実施形態では、背景物体の手前に半透明物体が位置し、両者の少なくとも一部が重なっている場合を対象とする。つまり、背景物体と半透明物体とが重なっている領域と、重なっていない領域とがある場合には、両者が重なっていない領域については、背景物体のレンダリング画像と半透明物体のレンダリング画像をそれぞれ別個に生成する。背景物体と半透明物体とが重なった領域については、画像生成装置7が以下に説明するようにして画像を合成する。   Further, when generating a composite image, the relative positional relationship between the translucent object and the background object is designated in advance. In this embodiment, a case where a translucent object is positioned in front of a background object and at least a part of both overlaps is targeted. In other words, if there is a region where the background object and the semi-transparent object overlap and a region where they do not overlap, the rendered image of the background object and the rendered image of the translucent object are respectively displayed for the non-overlapping region. Generate separately. For the region where the background object and the semi-transparent object overlap, the image generation device 7 synthesizes the image as described below.

画像生成装置7は、背景レンダリング部71と、半透明物体レンダリング部72と、差分画像生成部73と、ぼけ画像生成部74と、画像合成部75とを備える。また、画像生成装置7は、データを記憶する記憶部として、背景物体の形状データ記憶部81と、背景物体の色データ記憶部82と、半透明物体の形状データ記憶部83と、半透明物体の色データ記憶部22と、透過率データ記憶部23と、正透過率データ記憶部26と、拡散透過率データ記憶部27と、背景物体のレンダリング画像記憶部84と、背景物体の距離画像記憶部85と、半透明物体の距離画像記憶部86と、半透明物体のレンダリング画像記憶部87と、距離の差分画像記憶部88と、背景物体のぼけ画像記憶部89と、合成画像記憶部90とを備える。   The image generation device 7 includes a background rendering unit 71, a translucent object rendering unit 72, a difference image generation unit 73, a blurred image generation unit 74, and an image composition unit 75. Further, the image generation device 7 has a background object shape data storage unit 81, a background object color data storage unit 82, a translucent object shape data storage unit 83, and a translucent object as storage units for storing data. Color data storage unit 22, transmission data storage unit 23, regular transmission data storage unit 26, diffuse transmission data storage unit 27, background object rendering image storage unit 84, and background object distance image storage Unit 85, translucent object distance image storage unit 86, translucent object rendering image storage unit 87, distance difference image storage unit 88, background object blurred image storage unit 89, and composite image storage unit 90 With.

背景物体の形状データ記憶部81には、例えば、ポリゴンを用いて表現された、背景物体の3次元モデルの形状データが記憶されている。3次元モデルの形状データは、例えば、3次元スキャナなどを用いて背景物体を計測して生成しても良い。   The shape data storage unit 81 of the background object stores, for example, shape data of a three-dimensional model of the background object expressed using polygons. The shape data of the three-dimensional model may be generated by measuring a background object using, for example, a three-dimensional scanner.

背景物体の色データ記憶部82は、例えば、背景物体の形状データ記憶部81に記憶された3次元モデルの形状データの各ポリゴンの色のデータが記憶されている。   The background object color data storage unit 82 stores, for example, the color data of each polygon of the shape data of the three-dimensional model stored in the shape data storage unit 81 of the background object.

半透明物体の形状データ記憶部83には、半透明物体5のポリゴンを用いて表現された3次元モデルの形状データが記憶されている。半透明物体5の3次元モデルの形状データは、画像撮影装置3の画像センサ32を用いて予め計測しておいても良い。各ポリゴンは、半透明物体の色データ記憶部22の色データと予め対応付けられている。   The translucent object shape data storage unit 83 stores shape data of a three-dimensional model expressed using polygons of the translucent object 5. The shape data of the three-dimensional model of the translucent object 5 may be measured in advance using the image sensor 32 of the image capturing device 3. Each polygon is associated with color data in the color data storage unit 22 of the translucent object in advance.

半透明物体の色データ記憶部22、透過率データ記憶部23、正透過率データ記憶部26、及び拡散透過率データ記憶部27は、それぞれ、画像解析装置1の色データ記憶部22、透過率データ記憶部23、正透過率データ記憶部26、及び拡散透過率データ記憶部27である。   The translucent object color data storage unit 22, the transmittance data storage unit 23, the regular transmittance data storage unit 26, and the diffuse transmittance data storage unit 27 are respectively a color data storage unit 22 and a transmittance of the image analysis apparatus 1. The data storage unit 23, the regular transmittance data storage unit 26, and the diffuse transmittance data storage unit 27.

背景レンダリング部71は、背景物体の形状データ記憶部81と背景物体の色データ記憶部82にそれぞれに記憶された形状データ及び色データに基づいて、背景物体のレンダリング処理を行う。例えば、背景レンダリング部71は、所定の視点に対して予め定められた位置に配置された背景物体のレンダリング画像を生成する。生成された背景物体のレンダリング画像は、背景物体のレンダリング画像記憶部84に格納される。背景レンダリング部71は、それとともに、同じ視点から見たときの背景物体の距離画像を生成し、背景物体の距離画像記憶部85に格納する。   The background rendering unit 71 performs background object rendering processing based on the shape data and color data stored in the background object shape data storage unit 81 and the background object color data storage unit 82, respectively. For example, the background rendering unit 71 generates a rendering image of a background object arranged at a predetermined position with respect to a predetermined viewpoint. The generated rendered image of the background object is stored in the rendered image storage unit 84 of the background object. At the same time, the background rendering unit 71 generates a distance image of the background object when viewed from the same viewpoint, and stores it in the distance image storage unit 85 of the background object.

半透明物体レンダリング部72は、半透明物体の形状データ記憶部83と半透明物体の色データ記憶部22にそれぞれに記憶された形状データ及び色データに基づいて、半透明物体5のレンダリング処理を行う。例えば、半透明物体レンダリング部72は、背景物体のレンダリングに用いたものと同一の視点に対して予め定められた位置に配置された半透明物体5のレンダリング画像を生成する。生成された半透明物体5のレンダリング画像は、半透明物体のレンダリング画像記憶部87に格納される。半透明物体レンダリング部72は、さらに、同じ視点から見たときの半透明物体5の距離画像を生成し、半透明物体の距離画像記憶部86に格納する。   The translucent object rendering unit 72 performs rendering processing of the translucent object 5 based on the shape data and color data stored in the translucent object shape data storage unit 83 and the translucent object color data storage unit 22, respectively. Do. For example, the translucent object rendering unit 72 generates a rendered image of the translucent object 5 arranged at a predetermined position with respect to the same viewpoint used for rendering the background object. The generated rendered image of the translucent object 5 is stored in the rendered image storage unit 87 of the translucent object. The translucent object rendering unit 72 further generates a distance image of the translucent object 5 when viewed from the same viewpoint, and stores it in the distance image storage unit 86 of the translucent object.

差分画像生成部73は、背景物体の距離画像記憶部85と半透明物体の距離画像記憶部86を参照して、背景物体と半透明物体5との相対距離を示す距離の差分画像を生成し、距離の差分画像記憶部88に格納する。ここで、背景物体及び半透明物体は、それぞれ所定の視点からの位置が予め定められているので、背景物体と半透明物体との相対的な位置も予め定められている。   The difference image generation unit 73 refers to the distance image storage unit 85 of the background object and the distance image storage unit 86 of the translucent object, and generates a difference image of the distance indicating the relative distance between the background object and the translucent object 5. And stored in the distance difference image storage unit 88. Here, since the positions of the background object and the translucent object are respectively determined in advance from a predetermined viewpoint, the relative positions of the background object and the translucent object are also determined in advance.

ぼけ画像生成部74は、背景物体のレンダリング画像記憶部84と距離の差分画像記憶部88を参照して、背景物体と半透明物体5とが重なっている領域の背景物体の画像をぼけさせたぼけ画像を生成し、背景物体のぼけ画像記憶部89に格納する。   The blur image generation unit 74 refers to the background object rendering image storage unit 84 and the distance difference image storage unit 88 to blur the image of the background object in the region where the background object and the translucent object 5 overlap. A blurred image is generated and stored in the blurred image storage unit 89 of the background object.

ぼけ画像生成部74の処理について、図7を用いて説明する。まず、ぼけ画像生成部74は、所定のぼけフィルタ(以下、単に「フィルタ」と称することがある)740を用意する。同図の例では、ぼけフィルタ740のサイズは7×7画素であるが、フィルタサイズはこれに限らない。   The process of the blurred image generation unit 74 will be described with reference to FIG. First, the blurred image generation unit 74 prepares a predetermined blur filter (hereinafter simply referred to as “filter”) 740. In the example of the figure, the size of the blur filter 740 is 7 × 7 pixels, but the filter size is not limited to this.

ぼけ画像生成部74は、背景物体のレンダリング画像840に対してフィルタをかけて、背景物体のぼけ画像890を生成する。ここで、フィルタ740の各要素には、それぞれ0〜1の係数が定められている。この係数は後述する要領で変動する。従って、ぼけ画像生成部74は、背景物体のレンダリング画像840の対象画素841とフィルタ740の中心要素741とが一致するように、レンダリング画像840にフィルタ740を当てる。そして、フィルタ740がカバーするレンダリング画像840の各画素の画素値とフィルタの各要素の係数を掛け合わせる。ぼけ画像生成部74は、この処理をレンダリング画像840の全画素に対して順次行い、各画素値とフィルタの係数とを掛け合わせた値の画素ごとの総和を算出して、背景物体のぼけ画像890を生成する。   The blurred image generation unit 74 filters the background object rendering image 840 to generate a blurred image 890 of the background object. Here, coefficients of 0 to 1 are determined for each element of the filter 740. This coefficient varies in the manner described later. Accordingly, the blurred image generation unit 74 applies the filter 740 to the rendered image 840 so that the target pixel 841 of the rendered image 840 of the background object matches the central element 741 of the filter 740. Then, the pixel value of each pixel of the rendering image 840 covered by the filter 740 is multiplied by the coefficient of each element of the filter. The blurred image generation unit 74 sequentially performs this process on all the pixels of the rendering image 840, calculates the sum for each pixel of the value obtained by multiplying each pixel value and the filter coefficient, and blurs the background object. 890 is generated.

ここで、フィルタ740の各要素の係数は、以下のようにして定める。まず、フィルタ740の中心要素741の係数が、対象画素841と対応する差分画像880の対応画素881の値(相対距離d)に応じて定まる。例えば、この相対距離dが小さいほど係数は1に近くなり、ぼけ画像890におけるぼけ具合が小さくなる。一方、この相対距離dが大きいほど係数は0に近くなり、ぼけ画像890におけるぼけ具合が大きくなる。   Here, the coefficient of each element of the filter 740 is determined as follows. First, the coefficient of the center element 741 of the filter 740 is determined according to the value (relative distance d) of the corresponding pixel 881 of the difference image 880 corresponding to the target pixel 841. For example, as the relative distance d is smaller, the coefficient is closer to 1, and the degree of blur in the blurred image 890 is smaller. On the other hand, the greater the relative distance d, the closer the coefficient is to 0, and the degree of blur in the blurred image 890 increases.

フィルタ740の中心要素741以外の周囲の要素は、中心要素741の係数に応じて定まる。例えば、中心要素741の係数が最大であり、中心要素741から離れるほど係数が小さくなるようにしても良い。   Surrounding elements other than the central element 741 of the filter 740 are determined according to the coefficient of the central element 741. For example, the coefficient of the center element 741 may be the maximum, and the coefficient may decrease as the distance from the center element 741 increases.

例えば、図8は、ぼけフィルタ740の係数分布を示す図である。つまり、同図は、係数と中心要素741からの距離との関係示している。例えば、相対距離dが最も小さい第1の閾値よりも小さいとき(相対距離d:小)は、図8Aに示すように各係数を定めても良い。同様に、相対距離dが第1の閾値と第2の閾値(第2の閾値>第1の閾値)との間であるとき(相対距離d:中)は、図8Bに示すように各係数を定めても良い。さらに、距離差が第2の閾値より大きいとき(相対距離d:大)は、図8Cに示すように各係数を定めても良い。   For example, FIG. 8 is a diagram illustrating a coefficient distribution of the blur filter 740. That is, this figure shows the relationship between the coefficient and the distance from the central element 741. For example, when the relative distance d is smaller than the smallest first threshold (relative distance d: small), each coefficient may be determined as shown in FIG. 8A. Similarly, when the relative distance d is between the first threshold value and the second threshold value (second threshold value> first threshold value) (relative distance d: medium), as shown in FIG. May be determined. Further, when the distance difference is larger than the second threshold (relative distance d: large), each coefficient may be determined as shown in FIG. 8C.

これは、背景物体の手前に半透明物体が位置するとき、半透明物体と背景物体との相対距離に応じて背景のぼけ具合が異なって見えることを、画像生成装置7が生成する合成画像で再現するためである。つまり、半透明物体と背景物体との距離が近いときは背景物体のぼけ具合は小さく、半透明物体と背景物体との距離が大きいほど背景物体のぼけ具合が大きくなる。ぼけ画像生成部74は、半透明物体5と背景物体との相対距離に応じてぼけ具合になるように、ぼけ画像890を生成する。   This is a composite image generated by the image generation device 7 that the background blur looks different depending on the relative distance between the translucent object and the background object when the translucent object is positioned in front of the background object. This is to reproduce. That is, when the distance between the translucent object and the background object is short, the degree of blur of the background object is small, and as the distance between the translucent object and the background object is large, the degree of blur of the background object becomes large. The blurred image generation unit 74 generates a blurred image 890 so as to be blurred according to the relative distance between the translucent object 5 and the background object.

画像合成部75は、背景物体のレンダリング画像記憶部84,半透明物体のレンダリング画像記憶部87及び背景物体のぼけ画像記憶部89を参照して、半透明物体5と背景物体とが重なった重畳領域の合成画像を生成して、合成画像記憶部90に格納する。   The image composition unit 75 refers to the rendering image storage unit 84 of the background object, the rendering image storage unit 87 of the translucent object, and the blurred image storage unit 89 of the background object, so that the semitransparent object 5 and the background object overlap each other. A composite image of the area is generated and stored in the composite image storage unit 90.

画像合成を行う際、画像合成部75は、半透明物体のレンダリング画像記憶部87の半透明物体のレンダリング画像を透過率αを用いて補正する。つまり、画像合成部75は、半透明物体のレンダリング画像の各画素に対して、それぞれ対応する透過率αを用いて、(1−α)を掛ける。また、画像合成部75は、背景物体のレンダリング画像記憶部84の背景物体のレンダリング画像を正透過率iを用いて補正する。つまり、画像合成部75は、背景物体のレンダリング画像の各画素に対して、それぞれ対応する正透過率iを掛ける。さらに、画像合成部75は、背景物体のぼけ画像記憶部89の背景物体のぼけ画像を拡散透過率kを用いて補正する。つまり、画像合成部75は、背景物体のぼけ画像の各画素に対して、それぞれ対応する拡散透過率kを掛ける。 When performing image composition, the image composition unit 75 corrects the rendering image of the translucent object in the rendering image storage unit 87 of the translucent object using the transmittance α. That is, the image composition unit 75 multiplies (1-α) for each pixel of the rendering image of the translucent object using the corresponding transmittance α. Also, the image composition unit 75 corrects the rendered image of the background object in the background object rendered image storage unit 84 using the regular transmittance i. That is, the image composition unit 75 multiplies each pixel of the rendered image of the background object by the corresponding regular transmittance i. Further, the image synthesizing unit 75 is corrected using a diffuse transmittance k t a blurred image of the background object blurred image storage unit 89 of the background objects. That is, the image synthesizing unit 75, for each pixel of the blurred image of the background object, multiplying corresponding diffuse transmittance k t.

画像合成部75は、各画素について、上記のように透過率α、正透過率i及び拡散透過率kにより補正された半透明物体のレンダリング画像、背景物体のレンダリング画像、及び背景物体のぼけ画像の各画素値を加算して、合成画像を生成する。 For each pixel, the image composition unit 75 renders the translucent object rendering image, the background object rendering image, and the background object blurring that have been corrected by the transmittance α, the regular transmittance i, and the diffuse transmittance k t as described above. Each pixel value of the image is added to generate a composite image.

なお、画像合成部75は正透過率i及び拡散透過率kを用いないで合成画像を生成しても良い。例えば、画像合成部75は、例えば透過率αを用いて、合成画像を生成しても良い。つまり、このとき画像合成部75は、透過率αに基づいて半透明物体画像の合成比率を定めて、相対距離dに応じて背景物体画像をぼかしたぼけ画像と合成して合成画像を生成する。 Incidentally, the image synthesizing unit 75 may generate the synthesized image without using the specular transmittance i and diffuse transmittance k t. For example, the image composition unit 75 may generate a composite image using, for example, the transmittance α. That is, at this time, the image composition unit 75 determines the composition ratio of the translucent object image based on the transmittance α, and composes the background object image with the blurred image according to the relative distance d to generate a composite image. .

従来は、半透明物体の実際の透過率などは考慮していなかったが、本実施形態に係る画像生成装置7によれば、半透明物体から推定された透過率などを用いて画像を生成するので、その半透明物体の透過具合などをよりリアルに表現することができる。   Conventionally, the actual transmittance of the translucent object has not been taken into consideration, but according to the image generation device 7 according to the present embodiment, an image is generated using the transmittance estimated from the translucent object. Therefore, the translucency of the translucent object can be expressed more realistically.

上述した本発明の実施形態は、本発明の説明のための例示であり、本発明の範囲をそれらの実施形態にのみ限定する趣旨ではない。当業者は、本発明の要旨を逸脱することなしに、他の様々な態様で本発明を実施することができる。   The above-described embodiments of the present invention are examples for explaining the present invention, and are not intended to limit the scope of the present invention only to those embodiments. Those skilled in the art can implement the present invention in various other modes without departing from the gist of the present invention.

本発明の一実施形態に係る画像解析装置1及び画像撮影装置3の構成を示す。1 shows a configuration of an image analysis device 1 and an image photographing device 3 according to an embodiment of the present invention. フィルタテーブル35の一例を示す。An example of the filter table 35 is shown. 試料テーブル37の一例を示す。An example of the sample table 37 is shown. 透過率α、正透過率i及び拡散透過率kの説明図である。Transmittance alpha, is an illustration of a specular transmittance i and diffuse transmittance k t. 透過率αを正透過率iと拡散透過率kに分離する処理の説明図である。It is explanatory drawing of the process which isolate | separates the transmittance | permeability (alpha) into the regular transmittance i and the diffuse transmittance kt. 本発明の一実施形態に係る画像生成装置7の構成を示す。1 shows a configuration of an image generation apparatus 7 according to an embodiment of the present invention. ぼけ画像生成部74の処理の説明図である。7 is an explanatory diagram of processing of a blurred image generation unit 74. FIG. ぼけフィルタの係数分布を示す図である。It is a figure which shows the coefficient distribution of a blur filter.

符号の説明Explanation of symbols

1 画像解析装置
3 画像撮影装置
5 半透明物体
7 画像生成装置
11 透過率・色推定部
12 天井照明推定部
13 拡散反射率推定部
14 透過率分離処理部
71 背景レンダリング部
72 半透明物体レンダリング部
73 差分画像生成部
74 画像生成部
75 画像合成部
DESCRIPTION OF SYMBOLS 1 Image analysis apparatus 3 Image imaging device 5 Translucent object 7 Image generation apparatus 11 Transmittance / color estimation part 12 Ceiling illumination estimation part 13 Diffuse reflectance estimation part 14 Transmittance separation processing part 71 Background rendering part 72 Translucent object rendering part 73 Difference image generation unit 74 Image generation unit 75 Image composition unit

Claims (10)

第1の背景を用いて半透明物体を撮影して得た第1の半透明物体画像と、前記第1の背景とは明度が異なる第2の背景を用いて前記半透明物体を撮影して得た第2の半透明物体画像と、前記第1及び第2の背景と明度が異なり、且つ明度が実質的にゼロの第3の背景を用いて前記半透明物体を撮影して得た第3の半透明物体画像とを記憶する手段と、
前記第1の半透明物体画像における前記半透明物体領域の画素値と、前記第2の半透明物体画像における前記半透明物体領域の画素値とに基づいて、前記半透明物体の透過率を画素ごとに推定する透過率推定手段と、
前記第3の半透明物体画像における前記半透明物体領域の画素値に基づいて、前記半透明物体の拡散反射率を画素ごとに推定する拡散反射率推定手段と、
前記推定された前記半透明物体の画素ごとの透過率及び拡散反射率に基づいて、前記半透明物体の正透過率及び拡散透過率を、画素ごとに推定する正透過率及び拡散透過率推定手段と、
前記推定された画素ごとの正透過率、拡散透過率、及び拡散反射率の各データを記憶する手段と、を備える画像処理装置。
Photographing the translucent object using a first translucent object image obtained by photographing the translucent object using the first background and a second background having a brightness different from that of the first background The obtained second translucent object image is obtained by photographing the translucent object using a third background having a lightness different from that of the first and second backgrounds and having substantially zero lightness. Means for storing three translucent object images;
Based on the pixel value of the semi-transparent object area in the first semi-transparent object image and the pixel value of the semi-transparent object area in the second semi-transparent object image, the transmittance of the semi-transparent object is defined as a pixel. A transmittance estimation means for estimating each,
Diffuse reflectance estimation means for estimating a diffuse reflectance of the translucent object for each pixel based on a pixel value of the translucent object region in the third translucent object image;
Based on the estimated transmissivity and diffuse reflectance for each pixel of the semi-transparent object, normal transmittance and diffuse transmittance estimation means for estimating the regular transmittance and diffuse transmittance of the semi-transparent object for each pixel. When,
Means for storing each data of the estimated regular transmittance, diffuse transmittance, and diffuse reflectance of each pixel.
前記第1の背景を撮影して得た第1の背景画像と、前記第2の背景を撮影して得た第2の背景画像とを記憶する手段をさらに備え、
前記透過率推定手段は、前記第1の背景画像を用いて前記第1の半透明物体画像から前記第1の背景の影響を除去した画像と、前記第2の背景画像を用いて前記第2の半透明物体画像から前記第2の背景の影響を除去した画像とに基づいて、画素ごとに前記半透明物体の透過率を推定する請求項1記載の画像処理装置。
Means for storing a first background image obtained by photographing the first background and a second background image obtained by photographing the second background;
The transmittance estimating means uses the first background image to remove the influence of the first background from the first translucent object image, and uses the second background image to perform the second. The image processing apparatus according to claim 1, wherein the transmissivity of the translucent object is estimated for each pixel based on an image obtained by removing the influence of the second background from the translucent object image.
前記透過率推定手段は、第1の半透明物体画像の処理対象画素の画素値をB、第2の半透明物体画像の前記処理対象画素と対応する画素の各画素値をBとし、第1の背景画像の各画素値をBQ1、第2の背景画像の前記処理対象画素と対応する画素の画素値をBQ2としたとき、次の式により、前記半透明物体の領域について、画素ごと、かつ、赤、緑、青ごとの透過率αを推定することを特徴とする請求項2記載の画像処理装置。
=(1−α)B+αBQ1
=(1−α)B+αBQ2
:半透明物体の処理対象画素の固有値
The transmittance estimating means sets the pixel value of the processing target pixel of the first translucent object image to B 1 , and sets the pixel value of the pixel corresponding to the processing target pixel of the second translucent object image to B 2 , When each pixel value of the first background image is B Q1 and the pixel value of the pixel corresponding to the processing target pixel of the second background image is B Q2 , the region of the translucent object is expressed by the following equation: The image processing apparatus according to claim 2, wherein the transmittance α for each pixel and for each of red, green, and blue is estimated.
B 1 = (1−α) B P + αB Q1
B 2 = (1−α) B P + αB Q2
B P : Eigenvalue of pixel to be processed of translucent object
前記透過率推定手段は、さらに、前記半透明物体の領域内の各画素について、前記固有値Bをさらに推定することを特徴とする請求項3記載の画像処理装置。 The image processing apparatus according to claim 3, wherein the transmittance estimation unit further estimates the eigenvalue BP for each pixel in the region of the translucent object. 正透過率及び拡散透過率推定手段は、透過率α、正透過率i、拡散透過率k、拡散反射率kとしたとき、
α>kであれば、k=kr、i=α−kと推定し、
α≦kであれば、k=αi=0と推定することを特徴とする請求項1〜4のいずれかに記載の画像処理装置。
Specular transmittance and diffuse transmittance estimating means, transmittance alpha, specular transmittance i, diffuse transmittance k t, when the diffuse reflectance k r,
If α> k r, it estimates that k t = k r, i = α-k t,
The image processing apparatus according to claim 1, wherein if α ≦ k r , k t = α and i = 0 are estimated.
半透明物体と、前記半透明物体の背後に位置する背景物体とを含み、前記半透明物体の少なくとも一部が前記背景物体と重なる重畳領域を有する合成画像を生成する装置であって、
前記半透明物体の3次元形状データと、前記背景物体の3次元形状データとを記憶する手段と、
予め指定された、前記半透明物体と前記背景物体との相対的な位置関係に基づいて、前記重畳領域における前記半透明物体と前記背景物体との相対距離を算出する手段と、
前記半透明物体の3次元形状データに基づいて、半透明物体画像を生成する第1のレンダリング手段と、
前記背景物体の3次元形状データに基づいて、背景物体画像を生成する第2のレンダリング手段と、
前記半透明物体を撮影した画像から推定された、前記半透明物体の透過率を示すデータを記憶する手段と、
前記半透明物体画像及び前記背景物体画像に基づいて前記合成画像を生成する手段であって、前記半透明物体の透過率に基づいて前記半透明物体画像の合成比率を定めるとともに、前記合成画像における前記重畳領域の背景物体の画像を、前記半透明物体と前記背景物体との相対距離に応じたぼけ具合にして前記合成画像を生成する画像生成手段と、を備えた画像処理装置。
An apparatus for generating a composite image including a translucent object and a background object located behind the translucent object, wherein at least a part of the translucent object overlaps the background object,
Means for storing the three-dimensional shape data of the translucent object and the three-dimensional shape data of the background object;
Means for calculating a relative distance between the translucent object and the background object in the superimposed region based on a relative positional relationship between the translucent object and the background object specified in advance;
First rendering means for generating a translucent object image based on the three-dimensional shape data of the translucent object;
Second rendering means for generating a background object image based on the three-dimensional shape data of the background object;
Means for storing data indicating the transmissivity of the translucent object estimated from an image of the translucent object;
Means for generating the composite image based on the translucent object image and the background object image, and determining a composite ratio of the translucent object image based on the transmissivity of the translucent object; An image processing apparatus, comprising: an image generation unit configured to generate an image of the background object in the superimposition region with a degree of blur corresponding to a relative distance between the translucent object and the background object.
前記画像生成手段は、
前記重畳領域の背景物体画像を、前記半透明物体と前記背景物体との相対距離に応じてぼかしたぼけ画像を生成し、前記半透明物体の透過率に基づいて合成比率が定められた前記半透明物体画像と、前記ぼけ画像とに基づいて、前記合成画像の重畳領域を生成することを特徴とする請求項6記載の画像処理装置。
The image generating means includes
The background object image of the superimposition region is generated according to a relative distance between the translucent object and the background object, and a blurred image is generated, and the synthesis ratio is determined based on the transmittance of the translucent object. The image processing apparatus according to claim 6, wherein a superimposed region of the composite image is generated based on a transparent object image and the blurred image.
前記半透明物体の正透過率及び拡散透過率を示すデータを記憶する手段をさらに備え、
前記画像生成手段は、
前記正透過率に基づいて前記背景物体画像の合成比率を定め、前記拡散透過率に基づいて前記ぼけ画像の合成比率を定め、
前記半透明物体の透過率に基づいて合成比率が定められた半透明物体画像と、前記正透過率に基づいて合成比率が定められた背景物体画像と、前記拡散透過率に基づいて合成比率が定められたぼけ画像とに基づいて、前記合成画像の重畳領域を生成することを特徴とする請求項7記載の画像処理装置。
Means for storing data indicating the regular transmittance and diffuse transmittance of the translucent object;
The image generating means includes
Determine the composition ratio of the background object image based on the regular transmittance, determine the composition ratio of the blurred image based on the diffuse transmittance,
A translucent object image with a composition ratio determined based on the transmissivity of the translucent object, a background object image with a composition ratio determined based on the regular transmittance, and a composition ratio based on the diffuse transmittance The image processing apparatus according to claim 7, wherein a superimposed region of the composite image is generated based on the determined blurred image.
画像処理のためのコンピュータプログラムであって、
コンピュータに実行されると、
第1の背景を用いて半透明物体を撮影して得た第1の半透明物体画像と、前記第1の背景とは明度が異なる第2の背景を用いて前記半透明物体を撮影して得た第2の半透明物体画像と、前記第1及び第2の背景と明度が異なり、且つ明度が実質的にゼロの第3の背景を用いて前記半透明物体を撮影して得た第3の半透明物体画像とを記憶手段に格納する処理と、
前記第1の半透明物体画像における前記半透明物体領域の画素値と、前記第2の半透明物体画像における前記半透明物体領域の画素値とに基づいて、前記半透明物体の透過率を画素ごとに推定する処理と、
前記第3の半透明物体画像における前記半透明物体領域の画素値に基づいて、前記半透明物体の拡散反射率を画素ごとに推定する処理と、
前記推定された前記半透明物体の画素ごとの透過率及び拡散反射率に基づいて、前記半透明物体の正透過率及び拡散透過率を、画素ごとに推定する処理と、が行われることを特徴とするコンピュータプログラム。
A computer program for image processing,
When executed on a computer,
Photographing the translucent object using a first translucent object image obtained by photographing a translucent object using the first background and a second background having a brightness different from that of the first background The obtained second translucent object image is obtained by photographing the translucent object using a third background having a lightness different from that of the first and second backgrounds and having substantially zero lightness. A process of storing the three translucent object images in the storage means;
Based on the pixel value of the semi-transparent object region in the first semi-transparent object image and the pixel value of the semi-transparent object region in the second semi-transparent object image, the transmittance of the semi-transparent object is defined as a pixel. Processing to estimate for each,
A process for estimating the diffuse reflectance of the translucent object for each pixel based on the pixel value of the translucent object region in the third translucent object image;
Based on the estimated transmissivity and diffuse reflectance of each pixel of the translucent object, a process of estimating the regular transmissivity and diffuse transmittance of the translucent object for each pixel is performed. A computer program.
半透明物体と、前記半透明物体の背後に位置する背景物体とを含み、前記半透明物体の少なくとも一部が前記背景物体と重なる重畳領域を有する合成画像を生成するためのコンピュータプログラムであって、
コンピュータに実行されると、
前記半透明物体の3次元形状データと、前記背景物体の3次元形状データとを記憶手段に格納する処理と、
予め指定された、前記半透明物体と前記背景物体との相対的な位置関係に基づいて、前記重畳領域における前記半透明物体と前記背景物体との相対距離を算出する処理と、
前記半透明物体の3次元形状データに基づいて、半透明物体画像を生成する処理と、
前記背景物体の3次元形状データに基づいて、背景物体画像を生成する処理と、
前記半透明物体を撮影した画像から推定された、前記半透明物体の透過率を示すデータを記憶手段に格納する処理と、
前記半透明物体画像及び前記背景物体画像に基づいて前記合成画像を生成する手段であって、前記半透明物体の透過率に基づいて前記半透明物体画像の合成比率を定めるとともに、前記合成画像における前記重畳領域の背景物体の画像を、前記半透明物体と前記背景物体との相対距離に応じたぼけ具合にして前記合成画像を生成する処理と、が行われることを特徴とするコンピュータプログラム。
A computer program for generating a composite image including a translucent object and a background object located behind the translucent object, wherein at least a part of the translucent object overlaps the background object. ,
When executed on a computer,
Processing for storing the three-dimensional shape data of the translucent object and the three-dimensional shape data of the background object in a storage means;
A process of calculating a relative distance between the translucent object and the background object in the superimposed region based on a relative positional relationship between the translucent object and the background object specified in advance.
A process of generating a translucent object image based on the three-dimensional shape data of the translucent object;
Processing for generating a background object image based on the three-dimensional shape data of the background object;
A process for storing data indicating the transmissivity of the translucent object estimated from an image obtained by capturing the translucent object in a storage unit;
Means for generating the composite image based on the translucent object image and the background object image, and determining a composite ratio of the translucent object image based on the transmissivity of the translucent object; A computer program characterized by performing processing for generating an image of a background object in the superimposition area with a degree of blur according to a relative distance between the translucent object and the background object.
JP2007198073A 2007-07-30 2007-07-30 Image analysis apparatus and image generation apparatus Pending JP2009031226A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007198073A JP2009031226A (en) 2007-07-30 2007-07-30 Image analysis apparatus and image generation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007198073A JP2009031226A (en) 2007-07-30 2007-07-30 Image analysis apparatus and image generation apparatus

Publications (1)

Publication Number Publication Date
JP2009031226A true JP2009031226A (en) 2009-02-12

Family

ID=40401870

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007198073A Pending JP2009031226A (en) 2007-07-30 2007-07-30 Image analysis apparatus and image generation apparatus

Country Status (1)

Country Link
JP (1) JP2009031226A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011257236A (en) * 2010-06-08 2011-12-22 Srl Inc Specimen recognition device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011257236A (en) * 2010-06-08 2011-12-22 Srl Inc Specimen recognition device

Similar Documents

Publication Publication Date Title
US20240320808A1 (en) Learning-Based Lens Flare Removal
US9459820B2 (en) Display processing apparatus, display processing method, and computer program product
JP4945642B2 (en) Method and system for color correction of 3D image
JP7289653B2 (en) Control device, endoscope imaging device, control method, program and endoscope system
US8310499B2 (en) Balancing luminance disparity in a display by multiple projectors
JP5649367B2 (en) Image processing apparatus and image processing method
Hincapié-Ramos et al. SmartColor: Real-time color correction and contrast for optical see-through head-mounted displays
US10863082B2 (en) Image processing apparatus, image processing method, and storage medium
US20130194254A1 (en) Image processing apparatus, image processing method and program
US11967094B2 (en) Detecting device, information processing device, detecting method, and information processing program
JP6028527B2 (en) Display processing apparatus, display processing method, and program
JP2009164951A (en) Imaging system, image processing apparatus, image processing method, and program
JP2012155624A (en) Image output device, image display device, image output method, program and storage medium
CN111862293A (en) Image processing device, storage medium, and image processing method
EP4235393B1 (en) Image processing device, image processing method, and image processing program
JP2009031226A (en) Image analysis apparatus and image generation apparatus
JP2009164949A (en) Image processing apparatus, image processing method, and program
WO2018180860A1 (en) Image processing device, image processing method, and program
KR102675906B1 (en) A method of measuring a head up display ghost image and an apparatus of measuring a head up display ghost image
JP7634958B2 (en) Generation device, generation method, and program
US11875447B1 (en) Systems and methods for color correcting three-dimensional objects formed by point cloud data points
JP2009164950A (en) Imaging system
JP2019129469A (en) Image processing device
KR20250113193A (en) A method of measuring a head up display ghost image and an apparatus of measuring a head up display ghost image
JP2025079935A (en) Information processing device, information processing method, and program