JPH04361386A - Highlight area extraction device of color image - Google Patents
Highlight area extraction device of color imageInfo
- Publication number
- JPH04361386A JPH04361386A JP3162460A JP16246091A JPH04361386A JP H04361386 A JPH04361386 A JP H04361386A JP 3162460 A JP3162460 A JP 3162460A JP 16246091 A JP16246091 A JP 16246091A JP H04361386 A JPH04361386 A JP H04361386A
- Authority
- JP
- Japan
- Prior art keywords
- light source
- highlight
- normal vector
- highlight area
- stereo image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】0001
【産業上の利用分野】本発明は、ハイライト及びハイラ
イトに類似した色や明るさを持つ領域が混在している画
像から、ステレオ画像が持つ距離情報を用いて光源方向
を推定することにより、正しいハイライト領域を抽出す
るハイライト領域抽出装置に関するもので、物体の表面
反射率を測定する際に必要な技術に係るものである。[Industrial Application Field] The present invention estimates the direction of a light source from an image containing a mixture of highlights and areas with colors and brightness similar to the highlights, using distance information possessed by stereo images. , relates to a highlight region extracting device that extracts a correct highlight region, and relates to a technique necessary for measuring the surface reflectance of an object.
【0002】0002
【従来の技術】カメラ撮影による対象物の表面反射率の
測定において、拡散反射している部分については測定可
能であるが、光源の色を反映した測定結果となってしま
うハイライト領域は、光源の色を反射するので、これに
より得られる光源色を差し引けば正しい測定結果が得ら
れる。そこで、ハイライト領域を正しく抽出する技術が
必要となる。[Prior Art] When measuring the surface reflectance of an object by photographing with a camera, it is possible to measure the diffusely reflected portion, but the highlight area, which results in a measurement result that reflects the color of the light source, cannot be measured due to the light source. The correct measurement result can be obtained by subtracting the resulting light source color. Therefore, a technique to correctly extract highlight areas is required.
【0003】従来、画像からハイライト領域を抽出する
手法には、物体表面における光の反射特性の違い、すな
わち、光源の分光分布をそのまま反射する鏡面反射と、
物体内部に入り色素の粒子により屈折を受け、表面上へ
出る拡散反射という2つの反射成分を利用するものが代
表的(下記参考文献[1]参照)である。この手法では
、各画素が持つ値を三次元の表色空間にマッピングし、
その分布を用いる。三次元の表色空間としては、赤(R
)、緑(G)、青(B)を三原色とするRGB表色空間
が一般的であることから、以下ではこれを用いて説明す
る。各画素毎にR,G,Bの強度を測定すると、同一の
表面反射率を持つ領域であれば、図3に示すように、R
GB表色空間内で一つの軌跡10 で近似できるような
線状の分布をなす。対象画像中にハイライト領域が存在
するときには、この軌跡10 は、ほぼ2つの直線、す
なわち、鏡面反射によるもの(直線11 )と拡散反射
によるもの(直線l2 )に分けることができる。ここ
で、鏡面反射による直線の漸近線(破線で示す)は光源
の成分を示す。軌跡l0 上で鏡面反射に対応する領域
を抽出することによってハイライト領域が得られる。[0003] Conventionally, methods for extracting highlight areas from images have been based on the differences in the reflection characteristics of light on the surface of an object, that is, specular reflection, which reflects the spectral distribution of the light source as it is;
A typical method utilizes two reflection components: one that enters the object and is refracted by pigment particles, and the other is diffuse reflection that exits on the surface (see Reference [1] below). This method maps the value of each pixel to a three-dimensional color space,
Use that distribution. As a three-dimensional color space, red (R
), green (G), and blue (B) as the three primary colors is common, so this will be used in the following description. When the R, G, and B intensities are measured for each pixel, if the area has the same surface reflectance, R
It forms a linear distribution that can be approximated by one locus 10 in the GB color space. When a highlight region exists in the target image, this locus 10 can be divided into approximately two straight lines: one due to specular reflection (straight line 11) and one due to diffuse reflection (straight line 12). Here, the straight asymptote (indicated by a broken line) due to specular reflection indicates the component of the light source. A highlight region is obtained by extracting a region corresponding to specular reflection on the locus l0.
【0004】従来のカラー画像のハイライト領域抽出装
置の構成の一例を図2のブロックに示す。図2において
、2はRGBカメラ部,3はクラスタリング部,4は軌
跡検出部,5は成分分離部,7はハイライト領域検出部
である。An example of the configuration of a conventional color image highlight region extracting device is shown in the block diagram of FIG. In FIG. 2, 2 is an RGB camera section, 3 is a clustering section, 4 is a trajectory detection section, 5 is a component separation section, and 7 is a highlight area detection section.
【0005】次に、動作について説明する。まず、RG
Bカメラ部2によりカラー画像を入力する。クラスタリ
ング部3において、RGB表色空間上にカラー画像から
のRGB成分の強度をマッピングし、得られた軌跡をい
くつかのクラスタに分ける(下記参考文献[1]〜[3
]参照)。軌跡検出部4で各クラスタ毎に代表する軌跡
l0 を1つ求め、成分分離部5により鏡面反射による
直線l1 と拡散反射による直線l2 の2直線に分離
する。最後に、ハイライト領域検出部7により、鏡面反
射による直線l1 で近似される点の集合をハイライト
領域として検出する。Next, the operation will be explained. First, R.G.
A color image is input by the B camera section 2. The clustering unit 3 maps the intensities of the RGB components from the color image onto the RGB color space, and divides the obtained trajectory into several clusters (references [1] to [3] below).
]reference). A locus detector 4 finds one locus l0 representative of each cluster, and a component separator 5 separates it into two straight lines, a straight line l1 due to specular reflection and a straight line l2 due to diffuse reflection. Finally, the highlight area detection unit 7 detects a set of points approximated by the straight line l1 due to specular reflection as a highlight area.
【0006】[0006]
【発明が解決しようとする課題】上記のように、従来の
ハイライト領域抽出装置では、1台のカメラで撮影した
画像についてハイライト領域の抽出を行っているので、
輝度がある程度高く(真のハイライト領域と同程度)、
かつ光源色と似ているもの、すなわち、従来はテクスチ
ャのない均一な表面反射率を持つ物体を対象としており
、光源の色成分と同系色で高い輝度を持つテクスチャが
物体の表面上にある場合には、その部分をハイライト領
域として検出してしまうという欠点があった。[Problem to be Solved by the Invention] As mentioned above, the conventional highlight region extraction device extracts highlight regions from images taken with a single camera.
The brightness is somewhat high (same as the true highlight area),
and objects that are similar to the light source color, that is, conventionally target objects with uniform surface reflectance without texture, and when there is a texture on the surface of the object that has a similar color to the color component of the light source and has high luminance. had the disadvantage that the area was detected as a highlight area.
【0007】本発明は、上記の欠点を解決するためにな
されたもので、物体の表面に光源の色成分と同系色の色
で高い輝度を持つテクスチャがある場合であっても、テ
クスチャと混同することなく、ハイライト領域を正しく
抽出することができるカラー画像のハイライト領域抽出
装置を得ることを目的とする。The present invention was made to solve the above-mentioned drawbacks, and even if there is a texture on the surface of an object that is similar in color to the color component of the light source and has high brightness, it may be confused with the texture. It is an object of the present invention to provide a highlight region extracting device for a color image that can correctly extract highlight regions without having to do so.
【0008】[0008]
【課題を解決するための手段】本発明にかかるカラー画
像のハイライト領域抽出装置は、従来の手法で得られる
ハイライト領域をハイライト領域の候補とし、カラース
テレオ画像を距離画像に変換する距離画像生成部と、各
画素毎に距離画像から法線ベクトルを求める法線ベクト
ル計算部と、この法線ベクトル計算部より得られた法線
ベクトルを用いて光源の方向を推定する光源方向計算部
と、この光源方向計算部で得られた光源方向を示す直線
の集中する率から光源の位置を判断する推定度数計算部
と、前記ハイライト領域の候補の中から推定された光源
方向が同じ点に集中するハイライト領域の候補だけを正
しいハイライト領域として抽出するハイライト領域決定
部とよりなるものである。[Means for Solving the Problems] A color image highlight region extraction device according to the present invention uses highlight regions obtained by conventional methods as highlight region candidates, and calculates distances for converting a color stereo image into a distance image. An image generation section, a normal vector calculation section that calculates a normal vector from a distance image for each pixel, and a light source direction calculation section that estimates the direction of the light source using the normal vector obtained from this normal vector calculation section. and an estimated frequency calculation unit that determines the position of the light source from the concentration rate of straight lines indicating the light source direction obtained by the light source direction calculation unit, and a point where the light source direction estimated from among the highlight area candidates is the same. The highlight area determination unit extracts only highlight area candidates concentrated in the area as correct highlight areas.
【0009】[0009]
【作用】本発明においては、2台のカメラから対象とす
るシーンを入力し、カラーステレオ画像を得る。それを
距離画像に変換し(下記参考文献[4]参照)、この距
離画像から画像中に含まれる対象物の形状を得る。また
、同じカラーステレオ画像からは自動的に各画素におけ
るR,G,Bの強度をRGB表色空間にマッピングし、
その分布を類似のものをひとまとめにしてクラスタリン
グし、さらに、個々のクラスタに対し、1つの軌跡l0
を代表として求める(図3参照)。この軌跡l0 が
表す反射光分布が鏡面反射成分を含む場合には、拡散反
射成分と分離できるので、軌跡を鏡面反射成分(直線l
1 )と拡散反射成分(直線12 )の2つの直線で近
似する。得られた2直線のうち、鏡面反射成分を持つ直
線l1 で近似させる点の集合をハイライト領域の候補
とする。この候補の中には、テクスチャの影響により光
源の色成分と同系の色を持ち、かつ強度の高い部分も含
まれる。そこで、光源の方向を推定することにより、正
しいハイライト領域だけを抽出する。なお、図3では色
度面が光源の成分を表す直線(破線)と垂直に交わって
いることを示している。[Operation] In the present invention, a target scene is inputted from two cameras to obtain a color stereo image. This is converted into a distance image (see Reference [4] below), and the shape of the object included in the image is obtained from this distance image. In addition, from the same color stereo image, the R, G, and B intensities at each pixel are automatically mapped to the RGB color space,
The distribution is clustered by grouping similar items together, and then one trajectory l0 is created for each cluster.
is determined as a representative (see Figure 3). If the reflected light distribution represented by this trajectory l0 includes a specular reflection component, it can be separated from the diffuse reflection component.
1) and the diffuse reflection component (straight line 12). Of the two straight lines obtained, a set of points approximated by the straight line l1 having a specular reflection component is selected as a highlight area candidate. These candidates include portions that have colors similar to the color components of the light source and have high intensity due to the influence of texture. Therefore, by estimating the direction of the light source, only the correct highlight area is extracted. Note that FIG. 3 shows that the chromaticity plane intersects perpendicularly with the straight line (broken line) representing the component of the light source.
【0010】以下に、図4を用いて、ハイライト領域が
生ずる原理を示す。図4において、入射光の一部はその
まま物体表面で反射し(鏡面反射、実線で示す)、その
他は内部の色素によって屈折を受け、表面の外に出る(
拡散反射、破線で示す)。観測点から点A,Bを見たと
き、点Aでは光源からの入射角(θ)と等しい大きさの
反射角(θ)で、反射される光の方向が観測点の方向に
一致するので、ここにハイライト領域が生ずるが、点B
では反射光の方向と観測点の方向が一致しないので、表
面が均一の色であればここにはハイライト領域が生じな
い。[0010] The principle of generation of highlight areas will be explained below using FIG. 4. In Figure 4, part of the incident light is reflected as is from the object surface (specular reflection, shown by the solid line), and the rest is refracted by the internal pigment and exits the surface (
Diffuse reflection, shown as a dashed line). When looking at points A and B from the observation point, at point A, the angle of reflection (θ) is equal to the angle of incidence (θ) from the light source, and the direction of the reflected light matches the direction of the observation point. , a highlight area occurs here, but point B
In this case, the direction of the reflected light and the direction of the observation point do not match, so if the surface is of uniform color, no highlight area will occur here.
【0011】いま、観測方向は自明であるから、ハイラ
イト領域における光源方向を求めるためには、法線方向
が分かればよい。法線ベクトルは、距離画像を空間微分
することにより求めることができる。このようにして求
めた法線ベクトルと光源方向とのなす角を、法線ベクト
ルと観測方向とのなす角に等しくなるように光源方向を
推定する。Now, since the observation direction is obvious, in order to find the light source direction in the highlight area, it is sufficient to know the normal direction. The normal vector can be obtained by spatially differentiating the distance image. The light source direction is estimated so that the angle between the normal vector obtained in this way and the light source direction is equal to the angle between the normal vector and the observation direction.
【0012】光源方向の候補中、同じ点に集中する率が
高い程、真の光源の方向である可能性が高いので、この
同じ点に集中する率の高さに基づいて、真のハイライト
領域である率の高さを推定する。光源の個数が既知であ
る場合には、真のハイライト領域として採用し、画面上
に表示する。Among the candidate light source directions, the higher the probability that they are concentrated at the same point, the more likely it is the direction of the true light source. Estimate the height of the rate that is the area. If the number of light sources is known, it is adopted as a true highlight area and displayed on the screen.
【0013】次に、図5を用いて、表面上のある点にお
ける観測方向と法線ベクトルから光源の方向を推定し、
正しいハイライト領域を得る手順を示す。図5において
、観測点をVとし、物体表面上の点C,D,E,F,G
はそれぞれハイライト領域の候補にあがった点とし、各
点での法線ベクトルをNで表す。各点における観測方向
と法線ベクトルから光源の方向lC ,lD ,lE
,lF ,lG が推定される。光源方向を表す直線l
D ,lF ,lG は1点Iで交差するが、lE は
lD と交差しているだけであり、lC は交点を持た
ない。したがって、図5においては、点Iが光源の位置
であると判断される。点Iのある方向を光源方向と推定
した点D,F,Gは真のハイライト領域であるとし、点
C,Eはテクスチャのために誤ってハイライト領域の候
補に上がった領域とし、ハイライト領域の候補から棄却
する。
[参考文献]
[1]Gudrun J.Klinker,Steve
n A.Shafer,and Takeo Kane
de “USING A COLORREFLECTI
ON MODEL TO SEPARATE HIGH
LIGHTS FROM OBJECT COLOR
”International Conference
on Computer Vision(ICCV)
pp.145−150,1987[2]Gudrun
J.Klinker,Steven A.Shafer
,and Takeo Kanede “The Me
asurement of Hightlights
in Color images”Internati
onal Journal on Computer
Vision(IJCV)2(1),1988
[3]Gudrun J.Klinker,Steve
n A.Shafer,and Takeo Kane
de “Color Image Analysis
with an Intrinsic Reflect
ion Model ”International
Conference onComputer Vis
ion(ICCV)Tarpon Springs,F
L,Dec.5−8,1988[4]大田友一,正井康
之,池田克夫“動的計画法によるステレオ画像の区間対
応法”電子通信学会誌’85/4 Vol.J68−D
No.4Next, using FIG. 5, the direction of the light source is estimated from the observation direction and normal vector at a certain point on the surface,
The steps to obtain the correct highlight area are shown. In Figure 5, the observation point is V, and the points C, D, E, F, G on the object surface
are points that have been selected as highlight area candidates, and N represents the normal vector at each point. Direction of light source lC, lD, lE from observation direction and normal vector at each point
,lF,lG are estimated. Straight line l representing the direction of the light source
D , lF , and lG intersect at one point I, but lE only intersects lD , and lC has no intersection. Therefore, in FIG. 5, point I is determined to be the position of the light source. Points D, F, and G, where the direction of point I is estimated to be the light source direction, are assumed to be true highlight areas, and points C and E are areas that were incorrectly selected as highlight area candidates due to texture. Reject from the light area candidates. [References] [1] Gudrun J. Klinker, Steve
nA. Shafer, and Takeo Kane
de “USING A COLOR REFLECTI
ON MODEL TO SEPARATE HIGH
LIGHTS FROM OBJECT COLOR
”International Conference
on Computer Vision (ICCV)
pp. 145-150, 1987 [2] Gudrun
J. Klinker, Steven A. Shafer
, and Takeo Kanede “The Me
assurance of Highlights
in Color images”International
onal Journal on Computer
Vision (IJCV) 2(1), 1988 [3] Gudrun J. Klinker, Steve
nA. Shafer, and Takeo Kane
de “Color Image Analysis
With an Intrinsic Reflect
ion Model ”International
Conference on Computer Vis
ion (ICCV) Tarpon Springs, F
L, Dec. 5-8, 1988 [4] Yuichi Ota, Yasuyuki Masai, Katsuo Ikeda "Segmental correspondence method for stereo images using dynamic programming" Journal of the Institute of Electronics and Communication Engineers '85/4 Vol. J68-D
No. 4
【0014】[0014]
【実施例】以下に、本発明の実施例について図面を参照
して説明する。図1に本発明にかかるカラー画像のハイ
ライト領域抽出装置の一実施例のブロック図を示す。こ
こでは、簡単のため、点光源が1つの場合について説明
する。図1において、ハイライト領域抽出装置はRGB
カメラ部2A,2B,クラスタリング部3,軌跡検出部
4,成分分離部5,ハイライト候補検出部6,距離画像
生成部11,法線ベクトル計算部12,光源方向計算部
13,推定度数計算部14,ハイライト領域決定部15
からなる。そして、2A,2Bでステレオ画像入力手段
1が構成され、また、3〜6でハイライト候補検出手段
10が構成される。Embodiments Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 shows a block diagram of an embodiment of a color image highlight region extracting apparatus according to the present invention. Here, for simplicity, a case where there is one point light source will be described. In Figure 1, the highlight area extraction device is RGB
Camera units 2A, 2B, clustering unit 3, trajectory detection unit 4, component separation unit 5, highlight candidate detection unit 6, distance image generation unit 11, normal vector calculation unit 12, light source direction calculation unit 13, estimated frequency calculation unit 14, Highlight area determination unit 15
Consisting of 2A and 2B constitute a stereo image input means 1, and 3 to 6 constitute a highlight candidate detection means 10.
【0015】RGBカメラ部2A,2Bによりカラース
テレオ画像を入力し、それをクラスタリング部3と距離
画像生成部11に送る。クラスタリング部3では、カラ
ーステレオ画像の各画素におけるR,G,Bの強度をR
GB表色空間にマッピングし、得られた分布の中で類似
のものをひとまとめにしてクラスタリングし、軌跡検出
部4で各クラスタ毎に1つ代表の軌跡を決める。そして
、成分分離部5により軌跡検出部4で得られた軌跡を2
直線に分離し、ハイライト候補検出部6において成分分
離部5で得られた2直線のうち、RGB表色空間で強度
の高い方に延びる直線で近似される点の集合をカラース
テレオ画像におけるハイライト領域として候補にあげる
。Color stereo images are input by the RGB camera sections 2A and 2B and sent to the clustering section 3 and the distance image generation section 11. In the clustering unit 3, the intensity of R, G, and B at each pixel of the color stereo image is
The distribution is mapped to the GB color space, similar distributions are grouped together into clusters, and the trajectory detecting section 4 determines one representative trajectory for each cluster. Then, the component separation unit 5 converts the trajectory obtained by the trajectory detection unit 4 into 2
The highlight candidate detection unit 6 selects a set of points that are approximated by a straight line extending toward the higher intensity one of the two straight lines obtained by the component separation unit 5 in the RGB color space. List it as a candidate for the light area.
【0016】一方、RGBカメラ部2A,2Bからの出
力を受けた距離画像生成部11では、カラーステレオ画
像を動的計画法(前記参考文献[4]参照)等や三角測
量法等を用いて距離画像を求め、法線ベクトル計算部1
2により各画素に対して法線ベクトルを求める。光源方
向計算部13では法線ベクトル計算部12で得られた法
線ベクトルから光源方向を推定する。今、光源を1つと
仮定すれば、推定度数計算部14では光源方向計算部1
3で推定された光源方向が交差する数の最も多い点を光
源の位置と見なす。最後に、ハイライト領域決定部15
ではハイライト候補検出手段10で得られたハイライト
領域の候補のうち、推定された光源方向が推定度数計算
部14によって推定された光源位置に向かっているもの
のみを正しいハイライト領域として抽出する。On the other hand, the distance image generation section 11 receives the output from the RGB camera sections 2A and 2B, and converts the color stereo image into a color stereo image using a dynamic programming method (see reference [4] mentioned above) or a triangulation method. Obtain a distance image and normal vector calculation unit 1
2, find the normal vector for each pixel. The light source direction calculation unit 13 estimates the light source direction from the normal vector obtained by the normal vector calculation unit 12. Now, assuming that there is one light source, the estimated power calculation section 14 uses the light source direction calculation section 1.
The point where the light source directions estimated in step 3 intersect with each other is considered to be the light source position. Finally, the highlight area determination unit 15
Then, among the highlight region candidates obtained by the highlight candidate detection means 10, only those whose estimated light source direction is toward the light source position estimated by the estimated frequency calculation section 14 are extracted as correct highlight regions. .
【0017】なお、ここでは、光源を1つとしたが、光
源の色が全く同一の場合またはクラスタリング部3で求
めた各クラスタが明確に分離可能な場合には、光源が複
数あっても適用できる。さらにカラーステレオ画像にお
けるR,G,Bの強度をクラスタリング部3でマッピン
グする空間は直交した3成分、すなわちR,G,Bを持
つ必要はなく、2つの成分しか持たない場合であっても
適用できる。[0017] Here, the number of light sources is one, but the method can be applied even if there are multiple light sources if the colors of the light sources are exactly the same or if each cluster obtained by the clustering section 3 can be clearly separated. . Furthermore, the space in which the intensities of R, G, and B in a color stereo image are mapped by the clustering unit 3 does not need to have three orthogonal components, that is, R, G, and B, and can be applied even if it has only two components. can.
【0018】[0018]
【発明の効果】本発明は以上説明したように、2台のカ
メラから撮影された画像から撮像点までの距離を算出し
、算出した距離情報を各画素に付加した距離画像を作成
し、各カメラで撮影した画像の各画素の色成分について
空間上にマッピングし、鏡面反射による直線に近似でき
る点の集合をハイライト領域の候補とする。距離画像の
各画素の距離情報から画素に対応する対象物上の点につ
いて法線ベクトルを求め、反射の原理から、その法線ベ
クトルと反射光とのなす角を法線の反対側に加えて光源
の方向と見なせる直線を得る。そして、この直線がある
程度以上密集していれば、そこを光源の位置として推定
し、ハイライト領域の候補のうち、この光源が得られた
領域をハイライト領域と判断するようにしたので、物体
の鏡面反射と拡散反射を用いてハイライト領域を抽出す
る際に、テクスチャ等の影響を受けずに正しくハイライ
ト領域を抽出することができる。すなわち、輝度と色と
が似ている領域でも推定により光源方向が特定できなけ
ればハイライト領域として検出せず、また、真のハイラ
イト領域でない場合には、法線ベクトルから推定される
光源方向がばらばらになり易く、光源が定まらないので
、この領域を光源からの反射によるハイライト領域であ
るとの誤った判断をする確率は少なくなる。このように
、ハイライト領域を正しく抽出することによって、光源
の色を正しく推定し、光源の影響を取り除いた表面反射
率を推定することができる。Effects of the Invention As explained above, the present invention calculates the distance from images taken by two cameras to an imaging point, creates a distance image by adding the calculated distance information to each pixel, and The color components of each pixel of an image captured by a camera are mapped spatially, and a set of points that can be approximated by a straight line due to specular reflection is selected as a candidate for a highlight area. Find the normal vector for the point on the object corresponding to the pixel from the distance information of each pixel in the distance image, and based on the principle of reflection, add the angle between that normal vector and the reflected light to the opposite side of the normal. Obtain a straight line that can be regarded as the direction of the light source. If these straight lines are densely packed to a certain extent, it is estimated as the position of the light source, and the area where this light source is obtained is determined to be the highlight area among the highlight area candidates. When extracting a highlight area using specular reflection and diffuse reflection, it is possible to correctly extract the highlight area without being affected by texture or the like. In other words, even if the brightness and color are similar, if the light source direction cannot be determined by estimation, it will not be detected as a highlight region, and if it is not a true highlight region, the light source direction estimated from the normal vector will not be detected. Since the area is likely to be scattered and the light source is not fixed, the probability of incorrectly determining that this area is a highlight area due to reflection from the light source is reduced. In this manner, by correctly extracting the highlight region, it is possible to correctly estimate the color of the light source and estimate the surface reflectance with the influence of the light source removed.
【図1】本発明の一実施例の構成を示すブロック図であ
る。FIG. 1 is a block diagram showing the configuration of an embodiment of the present invention.
【図2】従来のカラー画像の切り出し装置の構成を示す
ブロック図である。FIG. 2 is a block diagram showing the configuration of a conventional color image cutting device.
【図3】カラーステレオ画像における各画素値をRGB
表色空間にマッピングしたときの図である。[Figure 3] RGB values of each pixel in a color stereo image
It is a diagram when mapping to color space.
【図4】ハイライト領域が生ずる原理を示した図である
。FIG. 4 is a diagram showing the principle of generation of highlight areas.
【図5】光源方向の推定から正しいハイライト領域を抽
出する手順を示した図である。FIG. 5 is a diagram showing a procedure for extracting a correct highlight area from estimation of a light source direction.
1 ステレオ画像入力手段 2A RGBカメラ部 2B RGBカメラ部 3 クラスタリング部 4 軌跡検出部 5 成分分離部 6 ハイライト候補検出部 7 ハイライト候補検出部 10 ハイライト候補検出手段 11 距離画像生成部 12 法線ベクトル計算部 13 光源方向計算部 14 推定度数計算部 15 ハイライト領域決定部 1 Stereo image input means 2A RGB camera section 2B RGB camera section 3 Clustering section 4 Trajectory detection section 5 Component separation section 6 Highlight candidate detection section 7 Highlight candidate detection section 10 Highlight candidate detection means 11 Distance image generation unit 12 Normal vector calculation section 13 Light source direction calculation section 14 Estimated frequency calculation section 15 Highlight area determination section
Claims (1)
段と、このステレオ画像入力手段により得られた画像の
各画素における三原色成分の強度から、光沢面において
鏡面反射に起因して生ずるハイライト領域の候補を検出
するハイライト候補検出手段と、前記ステレオ画像入力
手段により得られたステレオ画像から、カメラと対象物
との距離を算出して、撮影画像の各画素にその距離情報
を付加する距離画像生成部と、この距離画像生成部の距
離情報から各画素に対応する対象物上の点の法線ベクト
ルを求める法線ベクトル計算部と、前記ステレオ画像入
力手段と対象物上の点と、前記法線ベクトルとの位置関
係から光源方向を示す直線を算出する光源方向計算部と
、この光源方向計算部で得られた光源方向を示す直線の
集中する率から光源の位置を判断する推定度数計算部と
、前記ハイライト候補検出手段で得られたハイライト領
域の候補の中から、前記推定度数計算部により推定され
た光源位置に向かっているものをハイライト領域とする
ハイライト領域決定部とを備えたことを特徴とするカラ
ー画像のハイライト領域抽出装置。[Claim 1] A stereo image input means using two cameras, and a highlight generated due to specular reflection on a glossy surface from the intensity of three primary color components in each pixel of the image obtained by the stereo image input means. A highlight candidate detection means for detecting region candidates and a stereo image obtained by the stereo image input means calculate the distance between the camera and the object, and add the distance information to each pixel of the photographed image. a distance image generation section; a normal vector calculation section that calculates a normal vector of a point on the object corresponding to each pixel from the distance information of the distance image generation section; and a point on the object corresponding to the stereo image input means. , a light source direction calculation unit that calculates a straight line indicating the light source direction from the positional relationship with the normal vector; and an estimation unit that determines the position of the light source from the concentration rate of the straight lines indicating the light source direction obtained by the light source direction calculation unit. A frequency calculation section and highlight region determination, from among the highlight region candidates obtained by the highlight candidate detection means, a highlight region that is directed toward the light source position estimated by the estimated frequency calculation section. 1. A color image highlight region extraction device comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3162460A JPH04361386A (en) | 1991-06-07 | 1991-06-07 | Highlight area extraction device of color image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3162460A JPH04361386A (en) | 1991-06-07 | 1991-06-07 | Highlight area extraction device of color image |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH04361386A true JPH04361386A (en) | 1992-12-14 |
Family
ID=15755041
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP3162460A Pending JPH04361386A (en) | 1991-06-07 | 1991-06-07 | Highlight area extraction device of color image |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH04361386A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2003041012A1 (en) * | 2001-11-07 | 2003-05-15 | Davar Pishva | Image highlight correction using illumination specific hsv color coordinates |
JP2016505968A (en) * | 2012-12-26 | 2016-02-25 | インテル・コーポレーション | Apparatus for 3D image enhancement using depth mapping and light source synthesis |
JP2018036884A (en) * | 2016-08-31 | 2018-03-08 | Kddi株式会社 | Light source estimation apparatus and program |
-
1991
- 1991-06-07 JP JP3162460A patent/JPH04361386A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2003041012A1 (en) * | 2001-11-07 | 2003-05-15 | Davar Pishva | Image highlight correction using illumination specific hsv color coordinates |
JP2005509342A (en) * | 2001-11-07 | 2005-04-07 | ダバー ピシュバ | Image highlight correction method using image source specific HSV color coordinates, image highlight correction program, and image acquisition system |
JP2016505968A (en) * | 2012-12-26 | 2016-02-25 | インテル・コーポレーション | Apparatus for 3D image enhancement using depth mapping and light source synthesis |
US9536345B2 (en) | 2012-12-26 | 2017-01-03 | Intel Corporation | Apparatus for enhancement of 3-D images using depth mapping and light source synthesis |
JP2018036884A (en) * | 2016-08-31 | 2018-03-08 | Kddi株式会社 | Light source estimation apparatus and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ikeuchi et al. | Separating reflection components of textured surfaces using a single image | |
EP2072947B1 (en) | Image processing device and image processing method | |
Finlayson et al. | Solving for colour constancy using a constrained dichromatic reflection model | |
US8724893B2 (en) | Method and system for color look up table generation | |
US9437035B2 (en) | Light source detection from synthesized objects | |
US20180091798A1 (en) | System and Method for Generating a Depth Map Using Differential Patterns | |
JP6256249B2 (en) | Measuring device, substrate inspection device, and control method thereof | |
KR20050058085A (en) | 3d scene model generation apparatus and method through the fusion of disparity map and depth map | |
CN101896865A (en) | Equipment for evaluating tire surfaces | |
CN102314601A (en) | Use nonlinear optical to remove by the shade in the image of catching based on the camera of vehicle according to constant nuclear | |
Pujol-Miro et al. | Registration of images to unorganized 3D point clouds using contour cues | |
CN105787429B (en) | The method and apparatus for being used to check object using machine vision | |
WO2023240963A1 (en) | Multispectral multi-sensor synergistic processing method and apparatus, and storage medium | |
JPH04361386A (en) | Highlight area extraction device of color image | |
Xiong et al. | Automatic white balancing via gray surface identification | |
Kwon et al. | Automatic sphere detection for extrinsic calibration of multiple RGBD cameras | |
Martinkauppi et al. | Face video database | |
JP6250035B2 (en) | Depth sensor-based reflective object shape acquisition method and apparatus | |
Short | 3-D Point Cloud Generation from Rigid and Flexible Stereo Vision Systems | |
KR100695128B1 (en) | Illumination Color Extraction Method from Color Image | |
KR100230446B1 (en) | Determination method for color of light from color image | |
Tan et al. | Reflection components separation based on chromaticity and noise analysis | |
KR100482790B1 (en) | Illuminant estimation on digital image from 3-dimensional RGB color coordinates | |
WO2023105961A1 (en) | Image processing device, image processing method, and program | |
Fukino et al. | Depth Estimation with Tilted Optics Using Split Color Filter Aperture |