JP4495355B2 - Image interpolation device - Google Patents
Image interpolation device Download PDFInfo
- Publication number
- JP4495355B2 JP4495355B2 JP2001006428A JP2001006428A JP4495355B2 JP 4495355 B2 JP4495355 B2 JP 4495355B2 JP 2001006428 A JP2001006428 A JP 2001006428A JP 2001006428 A JP2001006428 A JP 2001006428A JP 4495355 B2 JP4495355 B2 JP 4495355B2
- Authority
- JP
- Japan
- Prior art keywords
- signal
- pixel
- image
- luminance value
- interpolation processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Facsimile Heads (AREA)
- Color Television Image Signal Generators (AREA)
- Processing Of Color Television Signals (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、例えばデジタルカメラにおいて、カラー画像の画質を向上させるために設けられる画像補間装置に関する。
【0002】
【従来の技術】
従来デジタルカメラにおいて、カラー画像を検出するために、CCD等の撮像素子の前面にベイヤー配列のカラーフィルタを設けたものが知られている。このカラーフィルタは、レッド(R)、グリーン(G)およびブルー(B)の各カラーフィルタ要素を市松模様に配列して構成され、これらのカラーフィルタ要素は撮像素子のフォトダイオードにそれぞれ対応している。したがってフォトダイオードにより、各カラーフィルタ要素に対応した色の画素信号が生成され、例えばRのカラーフィルタ要素に対応したフォトダイオードによりRの画素信号が生成される。
【0003】
撮像素子から出力された画素信号をそのまま用いるよりも高画質のカラー画像を表示するため、画素信号に対して補間処理を施すことがある。通常の補間処理では、フォトダイオードによってR信号が得られた画素に対しては、その周囲に位置する画素のG信号の相加平均をとることによってG信号が生成され、また、その周囲に位置する画素のB信号の相加平均をとることによってB信号が生成される。ところが、例えば空間周波数の高い画像において、補間処理によって求めようとしている画素の実際の色とその周囲の画素の実際の色とが大きく異なることがあり、このような場合、補間処理により得られた画素の色信号の値によって、再生画像に色にじみが生じる。
【0004】
【発明が解決しようとする課題】
したがって本発明は、補間処理によって再生画像に色にじみが生じることを減少させることを目的としている。
【0005】
【課題を解決するための手段】
本発明に係る画像補間装置は、カラーフィルタとパターン設定部とG補間処理手段とR/B補間処理手段とB補間処理手段とR補間処理手段を備えている。
カラーフィルタは、水平方向にレッド(R)とグリーン(G)のカラーフィルタ要素が交互に並ぶ第1の列と、この第1の列の上下側に隣接し、水平方向にGとブルー(B)のカラーフィルタ要素が交互に並ぶ第2の列とから構成される。 撮像素子は、各カラーフィルタ要素に対応した画素信号であるR,G,B信号を生成する。パターン設定手段は、撮像素子によって生成されたR,G,B信号から、2×2の画素マトリクスにおいて左上にR信号が位置する第1パターンと、右上にG信号が位置する第2パターンと、左下にG信号が位置する第3パターンと、右下にB信号が位置する第4パターンとにそれぞれ属する画像を抽出する。G補間処理手段は、第1および第4パターンに属する画像の各画素に関し、隣接する画素のG信号を利用してG信号を求める。R/B補間処理手段は、第2および第3パターンに属する画像の各画素に関し、隣接する画素のRおよびB信号を利用してRおよびB信号を求める。B補間処理手段は、第1パターンに属する画像の各画素に関し、隣接する画素の中から輝度値が最も近い類似画素を抽出し、類似画素の輝度値と色差信号Cbに基づいて、B信号を求める。R補間処理手段は、第4パターンに属する画像の各画素に関し、隣接する画素の中から輝度値が最も近い類似画素を抽出し、類似画素の輝度値と色差信号Crに基づいて、R信号を求める。
【0006】
G補間処理手段において、隣接する画素は第2および第3パターンに属する画像に含まれる。R/B補間処理手段において、隣接する画素は第1および第4パターンに属する画像に含まれる。B補間処理手段およびR補間処理手段において、隣接する画素は第2および第3パターンに属する画像に含まれる。
【0007】
B補間処理手段およびR補間処理手段は、好ましくは、隣接する画素におけるG信号の値を用いて、輝度値が最も近い類似画素を抽出する。類似画素の色合いが補間処理によって求めようとしている画素の色合いに近いと推定することにより、色にじみが減少する。
【0008】
B補間処理手段は、第1パターンに属する画像の各画素に関し、色差信号Cbが類似画素の色差信号Cbに等しいと仮定してB信号を求めてもよい。同様にR補間処理手段は、第4パターンに属する画像の各画素に関し、色差信号Crが類似画素の色差信号Crに等しいと仮定してR信号を求めてもよい。
【0009】
B補間処理手段は、第1パターンに属する画像の各画素に関し、その画素のG信号と類似画素のG信号との比率を輝度値に乗じて求めた修正輝度値YGと色差信号Cbを用いて、B信号を求めてもよい。これにより、さらに色にじみを減少させることが可能になる。この場合、B補間処理手段は例えば下記式に従ってB信号を求める。
Y=0.299×R(x',y')+0.587×G(x',y')+0.114×B(x',y')
Cb=-0.169×R(x',y')-0.331×G(x',y')+0.5×B(x',y')
YG=Y×G(x,y)/G(x',y')
b=YG+1.772×Cb
ただし、Yは類似画素の輝度値、R(x',y'), G(x',y'),B(x',y')は類似画素のR,G,B信号、G(x,y)は第1パターンに属する画像の画素のG信号、bはB補間処理手段により求められる第1パターンに属する画像の画素のB信号である。
【0010】
R補間処理手段は、第4パターンに属する画像の各画素に関し、その画素のG信号と類似画素のG信号との比率を輝度値に乗じて求めた修正輝度値YGと色差信号Crを用いて、R信号を求めてもよい。この場合、R補間処理手段は例えば下記式に従ってR信号を求める。
Y=0.299×R(x',y')+0.587×G(x',y')+0.114×B(x',y')
Cr=0.5×R(x',y')-0.419×G(x',y')-0.081×B(x',y')
YG=Y×G(x,y)/G(x',y')
r=YG+1.402×Cr
ただし、Yは類似画素の輝度値、R(x',y'), G(x',y'),B(x',y')は類似画素のR,G,B信号、G(x,y)は第4パターンに属する画像の画素のG信号、rはR補間処理手段により求められる第4パターンに属する画像の画素のR信号である。
【0011】
B補間処理手段は、隣接する画素におけるG信号およびR信号の値を用いて、輝度値が最も近い類似画素を抽出してもよい。また、R補間処理手段は、隣接する画素におけるG信号およびB信号の値を用いて、輝度値が最も近い類似画素を抽出してもよい。
【0012】
B補間処理手段は、第1パターンに属する画像の各画素に関し、その画素のG信号およびR信号に基づいて得られる第1の参照値と類似画素のG信号およびR信号に基づいて得られる第2の参照値との比率を輝度値に乗じて求めた修正輝度値YGと色差信号Cbを用いて、B信号を求めてもよい。この場合、B補間処理手段は例えば下記式に従ってB信号を求める。
Y=0.299×R(x',y')+0.587×G(x',y')+0.114×B(x',y')
Cb=-0.169×R(x',y')-0.331×G(x',y')+0.5×B(x',y')
YG=Y×
(0.587×G(x,y)+0.299×R(x,y))/(0.587×G(x',y')+0.299×R(x',y'))
b=YG+1.772×Cb
ただし、Yは類似画素の輝度値、R(x',y'), G(x',y'),B(x',y')は類似画素のR,G,B信号、G(x,y)は第1パターンに属する画像の画素のG信号、bはB補間処理手段により求められる第1パターンに属する画像の画素のB信号である。
【0013】
R補間処理手段は、第4パターンに属する画像の各画素に関し、その画素のG信号およびB信号に基づいて得られる第1の参照値と類似画素のG信号およびB信号に基づいて得られる第2の参照値との比率を輝度値に乗じて求めた修正輝度値YGと色差信号Crを用いて、R信号を求めてもよい。この場合、R補間処理手段は例えば下記式に従ってR信号を求める。
Y=0.299×R(x',y')+0.587×G(x',y')+0.114×B(x',y')
Cr=0.5×R(x',y')-0.419×G(x',y')-0.081×B(x',y')
YG=Y×
(0.587×G(x,y)+0.114×B(x,y))/(0.587×G(x',y')+0.114×B(x',y'))
r=YG+1.402×Cr
ただし、Yは類似画素の輝度値、R(x',y'), G(x',y'),B(x',y')は類似画素のR,G,B信号、G(x,y)は第4パターンに属する画像の画素のG信号、rはR補間処理手段により求められる第4パターンに属する画像の画素のR信号である。
【0014】
【発明の実施の形態】
以下、本発明の実施形態を図面を参照して説明する。図1は、本発明の第1実施形態である画像補間装置を備えたデジタルカメラ10の概略的な構成を示している。
【0015】
撮影レンズ11の後方には撮像素子であるCCD12が配設され、CCD12の受光面にはカラーフィルタ13が設けられている。すなわち撮影レンズ11によって得られた被写体Sの光学像がCCD12の受光面に結像され、CCD12のフォトダイオードには、被写体像を構成するカラーの画素信号が発生する。画素信号はCCD12から読み出され、A/D変換器14においてデジタル信号に変換される。そして画素信号はホワイトバランス調整回路15においてホワイトバランス調整を施され、画像メモリ16に格納される。
【0016】
画素信号は画像メモリ16から読み出され、パターン設定部17に入力される。パターン設定部17では、後述するように、所定の配列パターンを構成する画素信号が全画素信号の中から抽出され、第1、第2、第3および第4パターンに分類される。補間処理部18では、パターン設定部17において抽出された画素信号がそのパターンに応じた補間処理を施される。補間処理部18から出力された、補間後の画素信号はメモリカード等の記録媒体Dに記録される。なおホワイトバランス調整回路15は、A/D変換器14の後段ではなく、補間処理部18の後段に設けられてもよい。
【0017】
図2はカラーフィルタ13におけるカラーフィルタ要素の配列と、パターン設定部17において抽出される、各パターンに属する画像の画素信号とを示している。カラーフィルタ13は、ベイヤー配列に従って配置されたレッド(R)、グリーン(G)およびブルー(B)のカラーフィルタ要素から構成される。すなわちカラーフィルタ13は、水平方向にRとGのカラーフィルタ要素が交互に並ぶ第1の列13aと、この第1の列13aの上下側に隣接し、水平方向にGとBのカラーフィルタ要素が交互に並ぶ第2の列13bとから構成され、CCD12では、各カラーフィルタ要素に対応した画素信号であるR,G,B信号が生成される。
【0018】
カラーフィルタ13は、左上にR、右上と左下にG、右下にBのカラーフィルタ要素が配置された2×2の画素マトリクスM1に区画される。パターン設定部17では、CCD12によって生成されるR,G,B信号から、画素マトリクスM1において左上にR信号が位置する第1パターンと、右上にG信号が位置する第2パターンと、左下にG信号が位置する第3パターンと、右下にB信号が位置する第4パターンとにそれぞれ属する画像が抽出される。
【0019】
パターン設定部17において、第1パターンは、C言語で表わされた論理式(1)に従って、1つの画像を構成する全ての画素信号から抽出される。
!(x%2) && !(y%2) (1)
なお論理式(1)において、「x」と「y」は画像の左隅を原点とする横座標と縦座標をそれぞれ示す。すなわち、左隅のR信号の座標は(0,0)その右隣のG信号の座標は(1,0)である。また論理式(1)において、「!」は論理否定、「%」は剰余、「&&」は論理積を示す。したがって論理式(1)によれば、x座標とy座標がともに偶数である画素信号(すなわちR信号)から成る画像が抽出される。
【0020】
同様に、第2パターン、第3パターンおよび第4パターンは、論理式(2)、(3)および(4)に従って抽出される。
(x%2) && !(y%2) (2)
!(x%2) && (y%2) (3)
(x%2) && (y%2) (4)
【0021】
図3〜図9を参照して補間処理部18における処理を説明する。図3は、画像メモリ16に格納された、1つの画像を構成する画素の座標と色を示している。補間処理部18では、後述するように、G補間処理ルーチン(図4)と、R/B補間処理ルーチン(図5)と、B補間処理ルーチンと(図7、8)、R補間処理ルーチン(図9)とが実行される。これらの補間処理ルーチンにおいて、補間によって画素データを求めようとしている対象画素の座標は(x,y)である。
【0022】
図4はG補間処理ルーチンのフローチャートである。G補間処理ルーチンでは、第1および第4パターンに属する画像に関する補間処理が行われる。
【0023】
ステップ101では、対象画素の左側に隣接する画素のG信号であるG(x-1,y)と右側に隣接する画素のG信号であるG(x+1,y)との差の絶対値が、対象画素の上側に隣接する画素のG信号であるG(x,y-1)と下側に隣接する画素のG信号であるG(x,y+1)との差の絶対値よりも小さいか否かが判定される。対象画素の座標が(2,2)である場合(すなわち第1パターンの画像)を例にとって説明すると、対象画素はR(2,2)であり、ステップ101では|G(1,2)-G(3,2)|が|G(2,1)-G(2,3)|よりも小さいか否かが判定される。
【0024】
なお対象画素が第1パターンに属する画像に含まれるとき、すなわちR信号であるとき、その左右に隣接する画素は第2パターンに属する画像に含まれ、またその上下に隣接する画素は第3パターンに含まれる。一方、対象画素が第4パターンに属する画像に含まれるとき、すなわちB信号であるとき、その左右に隣接する画素は第3パターンに属する画像に含まれ、またその上下に隣接する画素は第2パターンに含まれる。
【0025】
ステップ101において、対象画素の左右に隣接する画素信号の差の絶対値の方が上下に隣接する画素信号の差の絶対値よりも小さいと判定されたとき、ステップ102が実行され、左右に隣接する画素信号であるG(x-1,y)とG(x+1,y)の相加平均が、対象画素のG信号gとして求められる。これに対して、対象画素の左右に隣接する画素信号の差の絶対値が上下に隣接する画素信号の差の絶対値よりも小さくないと判定されたとき、ステップ103において、上下に隣接する画素信号であるG(x,y-1)とG(x,y+1)の相加平均が、対象画素のG信号gとして求められる。ステップ102または103の実行により、G補間処理ルーチンは終了する。
【0026】
このようにG補間処理ルーチンでは、第1および第4パターンに属する画像の各画素に関し、左右および上下に隣接する4つのG信号において、差の小さい方の組の2つのG信号の平均値が対象画素のG信号として求められる。第1および第4パターンに属する画像の全ての画素に対してG補間処理ルーチンが実行されると、1つの画像を構成する全画素におけるG信号が求められたことになる。
【0027】
図5はR/B補間処理ルーチンのフローチャートである。R/B補間処理ルーチンでは、第2および第3パターンに属する画像に関する補間処理が行われる。
【0028】
ステップ201では対象画素が第2パターンに属する画像に含まれるか否かが判定される。対象画素が第2パターンに属する画像に含まれるとき、すなわち対象画素が画素マトリクスM1(図2)の右上のG信号であるとき、ステップ202が実行される。これに対して対象画素が第2パターンに含まれないとき、すなわち第3パターンに含まれ、画素マトリクスM1(図2)の左下のG信号であるとき、ステップ203が実行される。
【0029】
ステップ202では、対象画素の左右に隣接する画素信号(第1パターンの画像)であるR(x-1,y)とR(x+1,y)の相加平均が対象画素のR信号rとして求められる。また対象画素の上下に隣接する画素信号(第4パターンの画像)であるB(x,y-1)とB(x,y+1)の相加平均が対象画素のB信号bとして求められる。
【0030】
ステップ203では、対象画素の上下に隣接する画素信号(第1パターンの画像)であるR(x,y-1)とR(x,y+1)の相加平均が対象画素のR信号rとして求められる。また対象画素の左右に隣接する画素信号(第4パターンの画像)であるB(x-1,y)とB(x+1,y)の相加平均が対象画素のB信号bとして求められる。
【0031】
ステップ202または203の実行によりR/B補間処理ルーチンは終了する。このようにR/B補間処理ルーチンでは、第2および第3パターンに属する画像の各画素に関し、左右および上下に隣接する画素信号を補間することにより、対象画素のRおよびB信号が求められる。G補間処理ルーチン(図4)が完了し、かつ第2および第3パターンに属する画像の全ての画素に対してR/B補間処理ルーチンが実行されると、図6から理解されるように、1つの画像を構成する全画素におけるG信号が求められ、また第2および第3パターンに属する画像の各画素に関してR信号rとB信号bが求められたことになる。すなわち第1パターンに属する画像に関しては、B信号がまだ求められておらず、また第4パターンに属する画像に関しては、R信号がまだ求められていない。
【0032】
図7および図8は、第1パターンに属する画像の各画素に関してB信号を求めるB補間処理ルーチンのフローチャートである。
【0033】
ステップ301では、対象画素の左側に隣接する画素のG信号であるG(x-1,y)と対象画素のG信号であるG(x,y)との差の絶対値が、対象画素の右側に隣接する画素のG信号であるG(x+1,y)と対象画素のG信号であるG(x,y)との差の絶対値よりも小さいか否かが判定される。換言すれば、対象画素の左右に隣接するいずれの画素のG信号が対象画素のG信号に近い値を有するか否かが判定される。左側の画素のG信号が対象画素のG信号により近いとき、ステップ302において、パラメータpが−1に定められる。これに対し、右側の画素のG信号が対象画素のG信号により近い、あるいは等しいとき、ステップ303において、パラメータpが1に定められる。
【0034】
ステップ304では、対象画素の上側に隣接する画素のG信号であるG(x,y-1)と対象画素のG信号であるG(x,y)との差の絶対値が、対象画素の下側に隣接する画素のG信号であるG(x,y+1)と対象画素のG信号であるG(x,y)との差の絶対値よりも小さいか否かが判定される。すなわち対象画素の上下に隣接するいずれの画素のG信号が対象画素のG信号に近い値を有するか否かが判定される。上側のG信号が対象画素のG信号により近いとき、ステップ305において、パラメータqが−1に定められる。これに対し、下側のG信号が対象画素のG信号により近い、あるいは等しいとき、ステップ306において、パラメータqが1に定められる。
【0035】
ステップ307では、対象画素の左右のいずれかに隣接する画素と、上下のいずれかに隣接する画素と、対象画素とに関し、G信号の大きさが比較される。対象画素の左側の画素のG信号が右側の画素のG信号よりも対象画素のG信号に近く、かつ対象画素の上側の画素のG信号が下側の画素のG信号よりも対象画素のG信号に近いとき、パラメータp,qはともに−1であり、G(x-1,y)とG(x,y)との差の絶対値が、G(x,y-1)とG(x,y)との差の絶対値よりも小さいか否かが判定される。左側のG信号が対象画素のG信号により近いとき、ステップ308において、パラメータsがpすなわち−1に定められる。これに対し、上側のG信号が対象画素のG信号により近い、あるいは等しいとき、ステップ309においてパラメータsが2×qすなわち−2に定められる。
【0036】
パラメータp,qがともに1であるとき、パラメータp,qがそれぞれ−1,1であるとき、パラメータp,qがそれぞれ1,−1であるときも同様にしてステップ307、308または309が実行される。このようにしてB補間処理ルーチンでは、対象画素のG信号に関し、第2および第3パターンに属する画像に含まれる、隣接する画素のG信号の値が検討され、左側に隣接する画素のG信号が最も近ければパラメータsは−1に、右側に隣接する画素のG信号が最も近ければパラメータsは1に、上側に隣接する画素のG信号が最も近ければパラメータsは−2に、下側に隣接する画素のG信号が最も近ければパラメータsは2に、それぞれ定められる。
【0037】
この明細書では、4つの隣接する画素において、対象画素のG信号に最も近いG信号を有する画素を類似画素と呼ぶ。類似画素は、輝度値が対象画素の輝度値に最も近いものが好ましいが、対象画素の輝度値が未知であるため、G信号を用いて輝度値を判定し、類似画素を抽出している。
【0038】
ステップ310ではパラメータsが−1であるか否か、すなわち類似画素が対象画素の左側に隣接する画素であるか否かが判定される。パラメータsが−1であるとき、ステップ311が実行され、類似画素のR,G,B信号であるR(x-1,y),G(x-1,y),B(x-1,y)を用いて輝度値Y、色差信号Cbおよび修正輝度値YGが求められる。
【0039】
輝度値Y、色差信号Cbおよび修正輝度値YGはそれぞれ(5)式、(6)式および(7)式に従って演算される。
Y=0.299×R(x-1,y)+0.587×G(x-1,y)+0.114×B(x-1,y) (5)
Cb=-0.169×R(x-1,y)-0.331×G(x-1,y)+0.5×B(x-1,y) (6)
YG=Y×G(x,y)/G(x-1,y) (7)
【0040】
(5)式と(6)式は従来公知である。修正輝度値YGは、(7)式から理解されるように対象画素のG信号と類似画素のG信号との比率を輝度値Yに乗じたものである。
【0041】
ステップ312では、対象画素のB信号bが(8)式に従って演算され、B補間処理ルーチンは終了する。
b=YG+1.772×Cb (8)
なお(8)式は、色差信号CbをCb=(B−Y)×0.5/(1-0.114)と定義し、この定義式を変形するとともに輝度値Yの代わりに修正輝度値YGを用いることによって得られる。
【0042】
このように本実施形態では、対象画素の色差信号Cbは類似画素の色差信号Cbに等しいと仮定し、また修正輝度値YGを対象画素の輝度値と見做して、対象画素のB信号を求めている。
【0043】
ステップ310においてパラメータsが−1ではないと判定されたとき、ステップ313へ進み、パラメータsが1であるか否かが判定され、類似画素が対象画素の右側に隣接する画素であるか否かが判定される。パラメータsが1であるとき、ステップ314が実行され、類似画素のR,G,B信号を用いて輝度値Y、色差信号Cbおよび修正輝度値YGが求められる。
【0044】
輝度値Y、色差信号Cbおよび修正輝度値YGはそれぞれ(5a)式、(6a)式および(7a)式に従って演算される。
Y=0.299×R(x+1,y)+0.587×G(x+1,y)+0.114×B(x+1,y) (5a)
Cb=-0.169×R(x+1,y)-0.331×G(x+1,y)+0.5×B(x+1,y) (6a)
YG=Y×G(x,y)/G(x+1,y) (7a)
【0045】
次いでステップ312が実行され、対象画素のB信号が(8)式に従って演算され、B補間処理ルーチンは終了する。
【0046】
ステップ313においてパラメータsが1ではないと判定されたとき、ステップ315へ進み、パラメータsが−2であるか否かが判定され、類似画素が対象画素の上側に隣接する画素であるか否かが判定される。パラメータsが−2であるとき、ステップ316が実行され、類似画素のR,G,B信号を用いて輝度値Y、色差信号Cbおよび修正輝度値YGが求められる。
【0047】
輝度値Y、色差信号Cbおよび修正輝度値YGはそれぞれ(5b)式、(6b)式および(7b)式に従って演算される。
Y=0.299×R(x,y-1)+0.587×G(x,y-1)+0.114×B(x,y-1) (5b)
Cb=-0.169×R(x,y-1)-0.331×G(x,y-1)+0.5×B(x,y-1) (6b)
YG=Y(G(x,y)/G(x,y-1) (7b)
【0048】
次いで、ステップ311、314の場合と同様に、ステップ312が実行され、対象画素のB信号が(8)式に従って演算され、B補間処理ルーチンは終了する。
【0049】
ステップ315においてパラメータsが−2ではないと判定されたとき、パラメータsは2である、すなわち類似画素が対象画素の下側に隣接する画素であると見做され、ステップ317において、類似画素のR,G,B信号を用いて輝度値Y、色差信号Cbおよび修正輝度値YGが求められる。
【0050】
輝度値Y、色差信号Cbおよび修正輝度値YGはそれぞれ(5c)式、(6c)式および(7c)式に従って演算される。
Y=0.299×R(x,y+1)+0.587×G(x,y+1)+0.114×B(x,y+1) (5c)
Cb=-0.169×R(x,y+1)-0.331×G(x,y+1)+0.5×B(x,y+1) (6c)
YG=Y×G(x,y)/G(x,y+1) (7c)
【0051】
次いで、ステップ311、314、316の場合と同様に、ステップ312が実行され、対象画素のB信号が(8)式に従って演算され、B補間処理ルーチンは終了する。
【0052】
B補間処理ルーチンは、第1パターンに属する画像の全ての画素に関して実行される。G補間処理ルーチン(図4)、R/B補間処理ルーチン(図5)およびB補間処理ルーチン(図7及び図8)が完了した時点において、第1、第2および第3パターンに属する画像に関して、R,G,B信号が求められており、第4パターンに属する画像におけるR信号はまだ決定されていない。
【0053】
第4パターンの画像のR信号は、R補間処理ルーチンにより求められる。図9はR補間処理ルーチンのフローチャートの後半部分を示している。なおR補間処理ルーチンの前半部分は図7に示すB補間処理ルーチンと同じであるので、図示を省略する。
【0054】
ステップ410、413、415の処理内容はステップ310、313、315(図8)と同じである。ステップ411、412、414、416、417の処理内容はステップ311、312、314、316、317と基本的に同じであるが、R信号を求めるために、色差信号Crを用いている点が異なる。
【0055】
ステップ411では輝度値Y、色差信号Crおよび修正輝度値YGはそれぞれ(9)式、(10)式および(11)式に従って演算される。
Y=0.299×R(x-1,y)+0.587×G(x-1,y)+0.114×B(x-1,y) (9)
Cr=0.5×R(x-1,y)-0.419×G(x-1,y)-0.081×B(x-1,y) (10)
YG=Y×G(x,y)/G(x-1,y) (11)
【0056】
ステップ412では、対象画素のR信号rが修正輝度値YGと色差信号Crを用いて、(12)式に従って演算される。
r=YG+1.402×Cr (12)
なお(12)式は、色差信号CrをCr=(R−Y)×0.5/(1-0.299)と定義し、この定義式を変形するとともに輝度値Yの代わりに修正輝度値YGを用いることによって得られる。
【0057】
ステップ414では、輝度値Y、色差信号Crおよび修正輝度値YGはそれぞれ(9a)式、(10a)式および(11a)式に従って演算される。
Y=0.299×R(x+1,y)+0.587×G(x+1,y)+0.114×B(x+1,y) (9a)
Cr=0.5×R(x+1,y)-0.419×G(x+1,y)-0.081×B(x+1,y) (10a)
YG=Y×G(x,y)/G(x+1,y) (11a)
【0058】
ステップ416では、輝度値Y、色差信号Crおよび修正輝度値YGはそれぞれ(9b)式、(10b)式および(11b)式に従って演算される。
Y=0.299×R(x,y-1)+0.587×G(x,y-1)+0.114×B(x,y-1) (9b)
Cr=0.5×R(x,y-1)-0.419×G(x,y-1)-0.081×B(x,y-1) (10b)
YG=Y×G(x,y)/G(x,y-1) (11b)
【0059】
ステップ417では、輝度値Y、色差信号Crおよび修正輝度値YGはそれぞれ(9c)式、(10c)式および(11c)式に従って演算される。
Y=0.299×R(x,y+1)+0.587×G(x,y+1)+0.114×B(x,y+1) (9c)
Cb=0.5×R(x,y+1)-0.419×G(x,y+1)-0.081×B(x,y+1) (10c)
YG=Y×G(x,y)/G(x,y+1) (11c)
【0060】
R補間処理ルーチンは、第4パターンに属する画像の全ての画素に関して実行される。
【0061】
このようにR補間処理ルーチンでは、B補間処理ルーチンと同様に、対象画素の色差信号Crは類似画素の色差信号Crに等しいと仮定し、また修正輝度値YGを対象画素の輝度値と見做して、対象画素のR信号を求めている。
【0062】
以上のように本実施形態では、特にB補間処理ルーチン(図7および図8)とR補間処理ルーチン(図9)において、対象画素に関して、その左右および上下に位置する画素から輝度値が最も近いものを類似画素として抽出し、補間処理を行っている。この補間処理において、2つの画素における輝度値が近いほど色の相関が強いため、対象画素の色差信号を類似画素の色差信号とすることにより、実際の色により近い画素信号を得ることができる。したがって本実施形態によれば、再生画像における色にじみを減少させることができる。
【0063】
図10および図11を参照して第2実施形態を説明する。図10は、第1パターンに属する画像の各画素に関してB信号を求めるB補間処理ルーチンの前半部分を示し、図11は、第4パターンに属する画像の各画素に関してR信号を求めるR補間処理ルーチンの前半部分を示している。その他の構成は第1実施形態と同じであるので省略する。
【0064】
ステップ501では、対象画素の左側および右側に隣接する画素と対象画素における輝度値の比較として、不等式(13)が成立するか否かが判定される。
|0.587×(G(x-1,y)-G(x,y))+0.299×(R(x-1,y)-R(x,y))|<
|0.587×(G(x+1,y)-G(x,y))+0.299×(R(x+1,y)-R(x,y))| (13)
不等式(13)が真であるとき、すなわち左側の画素の輝度値が対象画素の輝度値の値により近いとき、ステップ502において、パラメータpが−1に定められる。これに対し、不等式(13)が偽であるとき、すなわち右側の画素の輝度値が対象画素の輝度値により近い、あるいは等しいとき、ステップ503において、パラメータpが1に定められる。
【0065】
ステップ504では、対象画素の上側および下側に隣接する画素と対象画素における輝度値の比較として、不等式(14)が成立するか否かが判定される。
|0.587×(G(x,y-1)-G(x,y))+0.299×(R(x,y-1)-R(x,y))|<
|0.587×(G(x,y+1)-G(x,y))+0.299×(R(x,y+1)-R(x,y))| (14)
不等式(14)が真であるとき、すなわち上側の画素の輝度値が対象画素の輝度値の値により近いとき、ステップ505において、パラメータqが−1に定められる。これに対し、不等式(14)が偽であるとき、すなわち下側の画素の輝度値が対象画素の輝度値により近い、あるいは等しいとき、ステップ506において、パラメータqが1に定められる。
【0066】
ステップ507では、対象画素の左右のいずれかに隣接する画素と、上下のいずれかに隣接する画素と、対象画素とに関し、不等式(15)に従って輝度値が比較される。
|0.587×(G(x+p,y)-G(x,y))+0.299×(R(x+p,y)-R(x,y))|<
|0.587×(G(x,y+q)-G(x,y))+0.299×(R(x,y+q)-R(x,y))| (15)
パラメータp,qがともに−1であり、かつ不等式(15)が真であるとき、左側の画素の輝度値が対象画素の輝度値に最も近く、この場合ステップ508においてパラメータsがpすなわち−1に定められる。これに対し、不等式(15)が偽であるとき、すなわち上側の画素の輝度値が対象画素の輝度値により近い、あるいは等しいとき、ステップ509においてパラメータsが2×qすなわち−2に定められる。
【0067】
パラメータp,qがともに1であるとき、パラメータp,qがそれぞれ−1,1であるとき、パラメータp,qがそれぞれ1,−1であるときも同様にしてステップ507、508または509が実行される。このようにしてB補間処理ルーチンでは、対象画素のG信号およびR信号と、第2および第3パターンに属する画像に含まれる、隣接する画素のG信号およびR信号とを用いて輝度値が検討され、左側に隣接する画素の輝度値が最も近ければパラメータsは−1に、右側に隣接する画素の輝度値が最も近ければパラメータsは1に、上側に隣接する画素の輝度値が最も近ければパラメータsは−2に、下側に隣接する画素の輝度値が最も近ければパラメータsは2に、それぞれ定められる。
【0068】
このようにして、対象画素の輝度値に最も近い輝度値を有する類似画素が抽出された後、図8に示されるフローチャートと同様な処理によって、類似画素のR,G,B信号を用いて輝度値Y、色差信号Cbおよび修正輝度値YGが求められ、対象画素のB信号が求められる。なお修正輝度値YGは、対象画素と類似画素のG信号とR信号を用いて、(16)式に従って求められる。その他の式については、第1実施形態と同じである。
YG=Y×
(0.587×G(x,y)+0.299×R(x,y))/(0.587×G(x',y')+0.299×R(x',y'))(16)
ただし、G(x',y')は類似画素のG信号、R(x',y')は類似画素のR信号を示す。
【0069】
R補間処理ルーチン(図11)では、第4パターンの画像のR信号が求められる。ステップ601では、対象画素の左側および右側に隣接する画素と対象画素における輝度値の比較として、不等式(17)が成立するか否かが判定される。
|0.587×(G(x-1,y)-G(x,y))+0.144×(B(x-1,y)-B(x,y))|<
|0.587×(G(x+1,y)-G(x,y))+0.144×(B(x+1,y)-B(x,y))| (17)
不等式(17)が真であるときは、ステップ602においてパラメータpが−1に定められ、不等式(17)が偽であるときは、ステップ603においてパラメータpが1に定められる。
【0070】
ステップ604では、対象画素の上側および下側に隣接する画素と対象画素における輝度値の比較として、不等式(18)が成立するか否かが判定される。
|0.587×(G(x,y-1)-G(x,y))+0.144×(B(x,y-1)-B(x,y))|<
|0.587×(G(x,y+1)-G(x,y))+0.144×(B(x,y+1)-B(x,y))| (18)
不等式(18)が真であるときは、ステップ605においてパラメータqが−1に定められ、不等式(18)が偽であるときは、ステップ606においてパラメータqが1に定められる。
【0071】
ステップ607では、対象画素の左右のいずれかに隣接する画素と、上下のいずれかに隣接する画素と、対象画素とに関し、不等式(19)に従って輝度値が比較される。
|0.587×(G(x+p,y)-G(x,y))+0.144×(B(x+p,y)-B(x,y))|<
|0.587×(G(x,y+q)-G(x,y))+0.144×(B(x,y+q)-B(x,y))| (19)
パラメータp,qがともに−1であり、かつ不等式(19)が真であるとき、左側の画素の輝度値が対象画素の輝度値に最も近く、この場合ステップ608においてパラメータsがpすなわち−1に定められる。これに対し、不等式(19)が偽であるとき、すなわち上側の画素の輝度値が対象画素の輝度値により近い、あるいは等しいとき、ステップ609においてパラメータsが2×qすなわち−2に定められる。
【0072】
パラメータp,qがともに1であるとき、パラメータp,qがそれぞれ−1,1であるとき、パラメータp,qがそれぞれ1,−1であるときも同様にしてステップ607、608または609が実行される。このようにしてR補間処理ルーチンでは、対象画素のG信号およびB信号と、第2および第3パターンに属する画像に含まれる、隣接する画素のG信号およびB信号とを用いて輝度値が検討され、左側に隣接する画素の輝度値が最も近ければパラメータsは−1に、右側に隣接する画素の輝度値が最も近ければパラメータsは1に、上側に隣接する画素の輝度値が最も近ければパラメータsは−2に、下側に隣接する画素の輝度値が最も近ければパラメータsは2に、それぞれ定められる。
【0073】
このようにして、対象画素の輝度値に最も近い輝度値を有する類似画素が抽出された後、図9に示されるフローチャートと同じ処理によって、類似画素のR,G,B信号を用いて輝度値Y、色差信号Crおよび修正輝度値YGが求められ、対象画素のR信号が求められる。なお修正輝度値YGは、対象画素と類似画素のG信号とB信号を用いて、(20)式に従って求められる。
YG=Y×
(0.587×G(x,y)+0.114×B(x,y))/(0.587×G(x',y')+0.114×B(x',y'))(20)
ただし、G(x',y')は類似画素のG信号、B(x',y')は類似画素のB信号を示す。
【0074】
以上のように本実施形態では、B補間処理ルーチン(図10)とR補間処理ルーチン(図11)において、輝度値としてG信号およびR信号あるいはB信号を用いているので、輝度信号をより正確に検討することができる。したがって、再生画像における色にじみを、第1実施形態よりも減少させることができる。
【0075】
【発明の効果】
以上のように本発明によれば、補間処理によって再生画像に生じる色にじみを減少させることができる。
【図面の簡単な説明】
【図1】本発明の第1実施形態である画像補間装置を備えたデジタルカメラの概略的な構成を示すブロック図である。
【図2】カラーフィルタにおけるカラーフィルタ要素の配列と、パターン設定部において抽出される各パターンに属する画像の画素信号とを示す図である。
【図3】1つの画像を構成する画素の座標と色を示す図である。
【図4】G補間処理ルーチンのフローチャートである。
【図5】R/B補間処理ルーチンのフローチャートである。
【図6】G補間処理ルーチンとR/B補間処理ルーチンが実行されたことによって求められた画素信号を示す図である。
【図7】B補間処理ルーチンのフローチャートの前半部分である。
【図8】B補間処理ルーチンのフローチャートの後半部分である。
【図9】R補間処理ルーチンのフローチャートの後半部分である。
【図10】第2実施形態におけるB補間処理ルーチンのフローチャートの前半部分である。
【図11】第2実施形態におけるR補間処理ルーチンのフローチャートの前半部分である。
【符号の説明】
12 撮像素子
13 カラーフィルタ[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image interpolation device provided to improve the image quality of a color image, for example, in a digital camera.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, a digital camera is known in which a Bayer array color filter is provided in front of an image sensor such as a CCD in order to detect a color image. This color filter is configured by arranging red (R), green (G) and blue (B) color filter elements in a checkered pattern, and these color filter elements correspond to the photodiodes of the image sensor, respectively. Yes. Therefore, a pixel signal of a color corresponding to each color filter element is generated by the photodiode, and for example, an R pixel signal is generated by the photodiode corresponding to the R color filter element.
[0003]
In order to display a high-quality color image rather than using the pixel signal output from the image sensor as it is, interpolation processing may be performed on the pixel signal. In a normal interpolation process, a G signal is generated by taking an arithmetic average of G signals of pixels located in the periphery of a pixel from which an R signal is obtained by a photodiode. The B signal is generated by taking the arithmetic mean of the B signals of the pixels to be processed. However, in an image having a high spatial frequency, for example, the actual color of the pixel to be obtained by the interpolation process and the actual color of the surrounding pixels may be greatly different. Depending on the value of the color signal of the pixel, color blur occurs in the reproduced image.
[0004]
[Problems to be solved by the invention]
Accordingly, an object of the present invention is to reduce the occurrence of color blur in a reproduced image due to interpolation processing.
[0005]
[Means for Solving the Problems]
The image interpolation apparatus according to the present invention includes a color filter, a pattern setting unit, a G interpolation processing unit, an R / B interpolation processing unit, a B interpolation processing unit, and an R interpolation processing unit.
The color filter includes a first row in which red (R) and green (G) color filter elements are alternately arranged in the horizontal direction, and adjacent to the upper and lower sides of the first row, and in the horizontal direction G and blue (B ) Color filter elements are alternately arranged in the second row. The image sensor generates R, G, and B signals that are pixel signals corresponding to each color filter element. The pattern setting means includes a first pattern in which an R signal is located on the upper left side in a 2 × 2 pixel matrix, and a second pattern in which a G signal is located on the upper right side from the R, G, and B signals generated by the image sensor. Images belonging to the third pattern in which the G signal is located in the lower left and the fourth pattern in which the B signal is located in the lower right are extracted. The G interpolation processing unit obtains a G signal for each pixel of the image belonging to the first and fourth patterns using the G signal of the adjacent pixel. The R / B interpolation processing means obtains R and B signals for each pixel of the images belonging to the second and third patterns using the R and B signals of adjacent pixels. For each pixel of the image belonging to the first pattern, the B interpolation processing means extracts a similar pixel having the closest luminance value from the adjacent pixels, and calculates the B signal based on the luminance value of the similar pixel and the color difference signal Cb. Ask. For each pixel of the image belonging to the fourth pattern, the R interpolation processing means extracts a similar pixel having the closest luminance value from the adjacent pixels, and calculates the R signal based on the luminance value of the similar pixel and the color difference signal Cr. Ask.
[0006]
In the G interpolation processing means, adjacent pixels are included in images belonging to the second and third patterns. In the R / B interpolation processing means, adjacent pixels are included in the images belonging to the first and fourth patterns. In the B interpolation processing means and the R interpolation processing means, adjacent pixels are included in the images belonging to the second and third patterns.
[0007]
The B interpolation processing unit and the R interpolation processing unit preferably extract a similar pixel having the closest luminance value by using the value of the G signal in the adjacent pixel. By estimating that the hue of the similar pixel is close to the hue of the pixel to be obtained by the interpolation process, the color blur is reduced.
[0008]
The B interpolation processing unit may obtain the B signal on the assumption that the color difference signal Cb is equal to the color difference signal Cb of the similar pixel for each pixel of the image belonging to the first pattern. Similarly, the R interpolation processing unit may obtain the R signal on the assumption that the color difference signal Cr is equal to the color difference signal Cr of the similar pixel for each pixel of the image belonging to the fourth pattern.
[0009]
The B interpolation processing means uses, for each pixel of the image belonging to the first pattern, the corrected luminance value YG obtained by multiplying the luminance value by the ratio between the G signal of the pixel and the G signal of the similar pixel and the color difference signal Cb. , B signal may be obtained. This makes it possible to further reduce color blur. In this case, the B interpolation processing means obtains the B signal according to the following equation, for example.
Y = 0.299 × R (x ' , y ' ) + 0.587 × G (x ' , y ' ) + 0.114 × B (x ' , y ' )
Cb = -0.169 × R (x ' , y ' ) -0.331 × G (x ' , y ' ) + 0.5 × B (x ' , y ' )
YG = Y × G (x, y) / G (x ' , y ' )
b = YG + 1.772 × Cb
Where Y is the luminance value of a similar pixel and R (x ' , y ' ), G (x ' , y ' ), B (x ' , y ' ) Is an R, G, B signal for similar pixels, G (x, y) is a G signal for pixels of an image belonging to the first pattern, and b is B It is a B signal of the pixel of the image which belongs to the 1st pattern calculated | required by the interpolation process means.
[0010]
The R interpolation processing means uses, for each pixel of the image belonging to the fourth pattern, the corrected luminance value YG and the color difference signal Cr obtained by multiplying the luminance value by the ratio between the G signal of the pixel and the G signal of the similar pixel. , R signal may be obtained. In this case, the R interpolation processing means obtains an R signal according to the following equation, for example.
Y = 0.299 × R (x ′, y ′) + 0.587 × G (x ′, y ′) + 0.114 × B (x ′, y ′)
Cr = 0.5 × R (x ′, y ′) − 0.419 × G (x ′, y ′) − 0.081 × B (x ′, y ′)
YG = Y × G (x, y) / G (x ′, y ′)
r = YG + 1.402 × Cr
Where Y is the luminance value of the similar pixel, R (x ′, y ′), G (x ′, y ′), B (x ′, y ′) are the R, G, B signals, G (x , y) is a G signal of an image pixel belonging to the fourth pattern, and r is an R signal of an image pixel belonging to the fourth pattern obtained by the R interpolation processing means.
[0011]
The B interpolation processing unit may extract a similar pixel having the closest luminance value by using the values of the G signal and the R signal in adjacent pixels. The R interpolation processing means may extract a similar pixel having the closest luminance value by using the values of the G signal and the B signal in adjacent pixels.
[0012]
The B interpolation processing means obtains, for each pixel of the image belonging to the first pattern, the first reference value obtained based on the G signal and R signal of the pixel and the G signal and R signal of the similar pixel. The B signal may be obtained by using the corrected luminance value YG obtained by multiplying the luminance value by the ratio with the reference value of 2 and the color difference signal Cb. In this case, the B interpolation processing means obtains the B signal according to the following equation, for example.
Y = 0.299 × R (x ′, y ′) + 0.587 × G (x ′, y ′) + 0.114 × B (x ′, y ′)
Cb = −0.169 × R (x ′, y ′) − 0.331 × G (x ′, y ′) + 0.5 × B (x ′, y ′)
YG = Y ×
(0.587 × G (x, y) + 0.299 × R (x, y)) / (0.587 × G (x ', y') + 0.299 × R (x ', y'))
b = YG + 1.772 × Cb
Where Y is the luminance value of the similar pixel, R (x ′, y ′), G (x ′, y ′), B (x ′, y ′) are the R, G, B signals, G (x , y) is the G signal of the pixels of the image belonging to the first pattern, and b is the B signal of the pixels of the image belonging to the first pattern obtained by the B interpolation processing means.
[0013]
The R interpolation processing means obtains, for each pixel of the image belonging to the fourth pattern, the first reference value obtained based on the G signal and B signal of the pixel and the G signal and B signal of the similar pixel. The R signal may be obtained by using the corrected luminance value YG obtained by multiplying the luminance value by the ratio with the reference value of 2 and the color difference signal Cr. In this case, the R interpolation processing means obtains an R signal according to the following equation, for example.
Y = 0.299 × R (x ′, y ′) + 0.587 × G (x ′, y ′) + 0.114 × B (x ′, y ′)
Cr = 0.5 × R (x ′, y ′) − 0.419 × G (x ′, y ′) − 0.081 × B (x ′, y ′)
YG = Y ×
(0.587 × G (x, y) + 0.114 × B (x, y)) / (0.587 × G (x ', y') + 0.114 × B (x ', y'))
r = YG + 1.402 × Cr
Where Y is the luminance value of the similar pixel, R (x ′, y ′), G (x ′, y ′), B (x ′, y ′) are the R, G, B signals, G (x , y) is a G signal of an image pixel belonging to the fourth pattern, and r is an R signal of an image pixel belonging to the fourth pattern obtained by the R interpolation processing means.
[0014]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 shows a schematic configuration of a
[0015]
A
[0016]
The pixel signal is read from the
[0017]
FIG. 2 shows an array of color filter elements in the
[0018]
The
[0019]
In the
! (X% 2) &&! (Y% 2) (1)
In the logical expression (1), “x” and “y” respectively indicate an abscissa and ordinate with the left corner of the image as the origin. That is, the coordinates of the R signal at the left corner are (0, 0), and the coordinates of the G signal at the right are (1,0). In the logical expression (1), “!” Indicates a logical negation, “%” indicates a remainder, and “&&” indicates a logical product. Therefore, according to the logical expression (1), an image composed of pixel signals (that is, R signals) whose x coordinate and y coordinate are both even numbers is extracted.
[0020]
Similarly, the second pattern, the third pattern, and the fourth pattern are extracted according to the logical expressions (2), (3), and (4).
(X% 2) &&! (Y% 2) (2)
! (X% 2) && (y% 2) (3)
(X% 2) && (y% 2) (4)
[0021]
Processing in the
[0022]
FIG. 4 is a flowchart of the G interpolation processing routine. In the G interpolation processing routine, interpolation processing relating to images belonging to the first and fourth patterns is performed.
[0023]
In
[0024]
When the target pixel is included in the image belonging to the first pattern, that is, the R signal, the pixels adjacent to the left and right are included in the image belonging to the second pattern, and the pixels adjacent to the top and bottom thereof are the third pattern. include. On the other hand, when the target pixel is included in the image belonging to the fourth pattern, that is, a B signal, the pixels adjacent to the left and right are included in the image belonging to the third pattern, and the pixels adjacent to the top and bottom thereof are the second. Included in the pattern.
[0025]
When it is determined in
[0026]
As described above, in the G interpolation processing routine, for each pixel of the image belonging to the first and fourth patterns, the average value of the two G signals of the smaller difference group among the four G signals adjacent to the left and right and the top and bottom is obtained. It is obtained as the G signal of the target pixel. When the G interpolation processing routine is executed for all the pixels of the images belonging to the first and fourth patterns, the G signals for all the pixels constituting one image are obtained.
[0027]
FIG. 5 is a flowchart of the R / B interpolation processing routine. In the R / B interpolation processing routine, interpolation processing relating to images belonging to the second and third patterns is performed.
[0028]
In
[0029]
In
[0030]
In
[0031]
Execution of
[0032]
7 and 8 are flowcharts of a B interpolation processing routine for obtaining a B signal for each pixel of the image belonging to the first pattern.
[0033]
In
[0034]
In
[0035]
In
[0036]
When the parameters p and q are both 1, the parameters p and q are −1 and 1 respectively, and the parameters p and q are respectively 1 and −1, the
[0037]
In this specification, among four adjacent pixels, a pixel having a G signal closest to the G signal of the target pixel is referred to as a similar pixel. The similar pixel preferably has a luminance value closest to the luminance value of the target pixel. However, since the luminance value of the target pixel is unknown, the similar pixel is extracted by determining the luminance value using the G signal.
[0038]
In
[0039]
The luminance value Y, the color difference signal Cb, and the corrected luminance value YG are calculated according to the equations (5), (6), and (7), respectively.
Y = 0.299 × R (x-1, y) + 0.587 × G (x-1, y) + 0.114 × B (x-1, y) (5)
Cb = -0.169 * R (x-1, y) -0.331 * G (x-1, y) + 0.5 * B (x-1, y) (6)
YG = Y × G (x, y) / G (x-1, y) (7)
[0040]
Expressions (5) and (6) are conventionally known. The corrected luminance value YG is obtained by multiplying the luminance value Y by the ratio between the G signal of the target pixel and the G signal of the similar pixel as understood from the equation (7).
[0041]
In
b = YG + 1.772 × Cb (8)
In the equation (8), the color difference signal Cb is defined as Cb = (BY) × 0.5 / (1-0.114), and this definition equation is modified and the modified luminance value YG is used instead of the luminance value Y. Obtained by.
[0042]
Thus, in this embodiment, it is assumed that the color difference signal Cb of the target pixel is equal to the color difference signal Cb of the similar pixel, and the corrected luminance value YG is regarded as the luminance value of the target pixel, and the B signal of the target pixel is Looking for.
[0043]
When it is determined in
[0044]
The luminance value Y, the color difference signal Cb, and the corrected luminance value YG are calculated according to the equations (5a), (6a), and (7a), respectively.
Y = 0.299 × R (x + 1, y) + 0.587 × G (x + 1, y) + 0.114 × B (x + 1, y) (5a)
Cb = −0.169 × R (x + 1, y) −0.331 × G (x + 1, y) + 0.5 × B (x + 1, y) (6a)
YG = Y × G (x, y) / G (x + 1, y) (7a)
[0045]
Next,
[0046]
When it is determined in
[0047]
The luminance value Y, the color difference signal Cb, and the corrected luminance value YG are calculated according to the equations (5b), (6b), and (7b), respectively.
Y = 0.299 × R (x, y-1) + 0.587 × G (x, y-1) + 0.114 × B (x, y-1) (5b)
Cb = -0.169 * R (x, y-1) -0.331 * G (x, y-1) + 0.5 * B (x, y-1) (6b)
YG = Y (G (x, y) / G (x, y-1) (7b)
[0048]
Next, as in the case of
[0049]
When it is determined in
[0050]
The luminance value Y, the color difference signal Cb, and the corrected luminance value YG are calculated according to the equations (5c), (6c), and (7c), respectively.
Y = 0.299 × R (x, y + 1) + 0.587 × G (x, y + 1) + 0.114 × B (x, y + 1) (5c)
Cb = −0.169 × R (x, y + 1) −0.331 × G (x, y + 1) + 0.5 × B (x, y + 1) (6c)
YG = Y × G (x, y) / G (x, y + 1) (7c)
[0051]
Next, as in the case of
[0052]
The B interpolation processing routine is executed for all pixels of the image belonging to the first pattern. When the G interpolation processing routine (FIG. 4), the R / B interpolation processing routine (FIG. 5), and the B interpolation processing routine (FIGS. 7 and 8) are completed, the images belonging to the first, second, and third patterns , R, G, B signals have been obtained, and the R signal in the image belonging to the fourth pattern has not yet been determined.
[0053]
The R signal of the fourth pattern image is obtained by the R interpolation processing routine. FIG. 9 shows the latter half of the flowchart of the R interpolation processing routine. The first half of the R interpolation processing routine is the same as the B interpolation processing routine shown in FIG.
[0054]
The processing contents of
[0055]
In
Y = 0.299 × R (x-1, y) + 0.587 × G (x-1, y) + 0.114 × B (x-1, y) (9)
Cr = 0.5 × R (x-1, y) -0.419 × G (x-1, y) -0.081 × B (x-1, y) (10)
YG = Y × G (x, y) / G (x-1, y) (11)
[0056]
In
r = YG + 1.402 × Cr (12)
In equation (12), the color difference signal Cr is defined as Cr = (R−Y) × 0.5 / (1−0.299), and this definition equation is modified and the modified luminance value YG is used instead of the luminance value Y. Obtained by.
[0057]
In
Y = 0.299 × R (x + 1, y) + 0.587 × G (x + 1, y) + 0.114 × B (x + 1, y) (9a)
Cr = 0.5 × R (x + 1, y) −0.419 × G (x + 1, y) −0.081 × B (x + 1, y) (10a)
YG = Y × G (x, y) / G (x + 1, y) (11a)
[0058]
In
Y = 0.299 × R (x, y-1) + 0.587 × G (x, y-1) + 0.114 × B (x, y-1) (9b)
Cr = 0.5 * R (x, y-1) -0.419 * G (x, y-1) -0.081 * B (x, y-1) (10b)
YG = Y * G (x, y) / G (x, y-1) (11b)
[0059]
In
Y = 0.299 × R (x, y + 1) + 0.587 × G (x, y + 1) + 0.114 × B (x, y + 1) (9c)
Cb = 0.5 × R (x, y + 1) −0.419 × G (x, y + 1) −0.081 × B (x, y + 1) (10c)
YG = Y × G (x, y) / G (x, y + 1) (11c)
[0060]
The R interpolation processing routine is executed for all pixels of the image belonging to the fourth pattern.
[0061]
As described above, in the R interpolation processing routine, similarly to the B interpolation processing routine, it is assumed that the color difference signal Cr of the target pixel is equal to the color difference signal Cr of the similar pixel, and the corrected luminance value YG is regarded as the luminance value of the target pixel. Thus, the R signal of the target pixel is obtained.
[0062]
As described above, in the present embodiment, in particular, in the B interpolation processing routine (FIGS. 7 and 8) and the R interpolation processing routine (FIG. 9), the luminance value is closest to the pixels located on the left and right and top and bottom of the target pixel. Those are extracted as similar pixels, and interpolation processing is performed. In this interpolation process, the closer the luminance values of the two pixels are, the stronger the color correlation is. Therefore, by using the color difference signal of the target pixel as the color difference signal of the similar pixel, a pixel signal closer to the actual color can be obtained. Therefore, according to the present embodiment, it is possible to reduce color bleeding in the reproduced image.
[0063]
A second embodiment will be described with reference to FIGS. 10 and 11. FIG. 10 shows the first half of a B interpolation processing routine for obtaining a B signal for each pixel of an image belonging to the first pattern, and FIG. 11 shows an R interpolation processing routine for obtaining an R signal for each pixel of an image belonging to the fourth pattern. The first half is shown. Other configurations are the same as those of the first embodiment, and thus are omitted.
[0064]
In
| 0.587 × (G (x-1, y) -G (x, y)) + 0.299 × (R (x-1, y) -R (x, y)) | <
| 0.587 × (G (x + 1, y) −G (x, y)) + 0.299 × (R (x + 1, y) −R (x, y)) | (13)
When the inequality (13) is true, that is, when the luminance value of the left pixel is closer to the luminance value of the target pixel, the parameter p is set to −1 in
[0065]
In
| 0.587 × (G (x, y-1) -G (x, y)) + 0.299 × (R (x, y-1) -R (x, y)) | <
| 0.587 × (G (x, y + 1) −G (x, y)) + 0.299 × (R (x, y + 1) −R (x, y)) | (14)
When the inequality (14) is true, that is, when the luminance value of the upper pixel is closer to the luminance value of the target pixel, in
[0066]
In
| 0.587 × (G (x + p, y) -G (x, y)) + 0.299 × (R (x + p, y) -R (x, y)) | <
| 0.587 × (G (x, y + q) -G (x, y)) + 0.299 × (R (x, y + q) -R (x, y)) | (15)
When the parameters p and q are both −1 and the inequality (15) is true, the luminance value of the left pixel is closest to the luminance value of the target pixel. In this case, in
[0067]
When the parameters p and q are both 1, the parameters p and q are −1 and 1 respectively, and the parameters p and q are respectively 1 and −1, the
[0068]
After the similar pixel having the luminance value closest to the luminance value of the target pixel is extracted in this way, the luminance is obtained using the R, G, and B signals of the similar pixel by the same process as the flowchart shown in FIG. The value Y, the color difference signal Cb, and the corrected luminance value YG are obtained, and the B signal of the target pixel is obtained. The corrected luminance value YG is obtained according to equation (16) using the G signal and R signal of the target pixel and similar pixels. Other formulas are the same as those in the first embodiment.
YG = Y ×
(0.587 × G (x, y) + 0.299 × R (x, y)) / (0.587 × G (x ′, y ′) + 0.299 × R (x ′, y ′)) (16)
However, G (x ′, y ′) indicates the G signal of the similar pixel, and R (x ′, y ′) indicates the R signal of the similar pixel.
[0069]
In the R interpolation processing routine (FIG. 11), the R signal of the fourth pattern image is obtained. In
| 0.587 × (G (x-1, y) -G (x, y)) + 0.144 × (B (x-1, y) -B (x, y)) | <
| 0.587 × (G (x + 1, y) -G (x, y)) + 0.144 × (B (x + 1, y) -B (x, y)) | (17)
When the inequality (17) is true, the parameter p is set to −1 at
[0070]
In
| 0.587 × (G (x, y-1) -G (x, y)) + 0.144 × (B (x, y-1) -B (x, y)) | <
| 0.587 × (G (x, y + 1) -G (x, y)) + 0.144 × (B (x, y + 1) -B (x, y)) | (18)
When the inequality (18) is true, the parameter q is set to −1 at
[0071]
In
| 0.587 × (G (x + p, y) -G (x, y)) + 0.144 × (B (x + p, y) -B (x, y)) | <
| 0.587 × (G (x, y + q) -G (x, y)) + 0.144 × (B (x, y + q) -B (x, y)) | (19)
When the parameters p and q are both −1 and the inequality (19) is true, the luminance value of the left pixel is closest to the luminance value of the target pixel. In this case, in
[0072]
When the parameters p and q are both 1, the parameters p and q are −1 and 1, respectively, and the parameters p and q are respectively 1 and −1,
[0073]
After the similar pixel having the luminance value closest to the luminance value of the target pixel is extracted in this way, the luminance value is obtained using the R, G, and B signals of the similar pixel by the same processing as the flowchart shown in FIG. Y, the color difference signal Cr and the corrected luminance value YG are obtained, and the R signal of the target pixel is obtained. The corrected luminance value YG is obtained according to the equation (20) using the G signal and B signal of the target pixel and similar pixels.
YG = Y ×
(0.587 × G (x, y) + 0.114 × B (x, y)) / (0.587 × G (x ′, y ′) + 0.114 × B (x ′, y ′)) (20)
However, G (x ′, y ′) indicates the G signal of the similar pixel, and B (x ′, y ′) indicates the B signal of the similar pixel.
[0074]
As described above, in the present embodiment, the G signal and the R signal or the B signal are used as the luminance values in the B interpolation processing routine (FIG. 10) and the R interpolation processing routine (FIG. 11). Can be considered. Therefore, the color blur in the reproduced image can be reduced as compared with the first embodiment.
[0075]
【The invention's effect】
As described above, according to the present invention, it is possible to reduce color bleeding that occurs in a reproduced image by interpolation processing.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a schematic configuration of a digital camera including an image interpolation device according to a first embodiment of the present invention.
FIG. 2 is a diagram illustrating an array of color filter elements in a color filter and pixel signals of an image belonging to each pattern extracted by a pattern setting unit.
FIG. 3 is a diagram illustrating coordinates and colors of pixels constituting one image.
FIG. 4 is a flowchart of a G interpolation processing routine.
FIG. 5 is a flowchart of an R / B interpolation processing routine.
FIG. 6 is a diagram illustrating pixel signals obtained by executing a G interpolation process routine and an R / B interpolation process routine.
FIG. 7 is the first half of a flowchart of a B interpolation processing routine.
FIG. 8 is the latter half of the flowchart of the B interpolation processing routine.
FIG. 9 is the latter half of the flowchart of the R interpolation processing routine.
FIG. 10 is the first half of a flowchart of a B interpolation processing routine in the second embodiment.
FIG. 11 is the first half of a flowchart of an R interpolation processing routine in the second embodiment.
[Explanation of symbols]
12 Image sensor
13 Color filter
Claims (17)
前記各カラーフィルタ要素に対応した画素信号であるR,G,B信号を生成する撮像素子と、
前記撮像素子によって生成されたR,G,B信号から、2×2の画素マトリクスにおいて左上にR信号が位置する第1パターンと、右上にG信号が位置する第2パターンと、左下にG信号が位置する第3パターンと、右下にB信号が位置する第4パターンとにそれぞれ属する画像を抽出するパターン設定手段と、
前記第1および第4パターンに属する画像の各画素に関し、隣接する画素のG信号を利用してG信号を求めるG補間処理手段と、
前記第2および第3パターンに属する画像の各画素に関し、隣接する画素のRおよびB信号を利用してRおよびB信号を求めるR/B補間処理手段と、
前記第1パターンに属する画像の各画素に関し、隣接する画素の中から輝度値が最も近い類似画素を抽出し、前記類似画素の輝度値と色差信号Cbに基づいて、B信号を求めるB補間処理手段と、
前記第4パターンに属する画像の各画素に関し、隣接する画素の中から輝度値が最も近い類似画素を抽出し、前記類似画素の輝度値と色差信号Crに基づいて、R信号を求めるR補間処理手段と
を備えることを特徴とする画像補間装置。A first column in which red (R) and green (G) color filter elements are alternately arranged in the horizontal direction, and a color filter of G and blue (B) in the horizontal direction adjacent to the upper and lower sides of the first column A color filter composed of a second row of alternating elements;
An image sensor that generates R, G, and B signals that are pixel signals corresponding to the color filter elements;
From the R, G, and B signals generated by the image sensor, a first pattern in which the R signal is located at the upper left in the 2 × 2 pixel matrix, a second pattern in which the G signal is located in the upper right, and a G signal in the lower left Pattern setting means for extracting images belonging to the third pattern in which B is located and the fourth pattern in which the B signal is located in the lower right,
G interpolation processing means for obtaining a G signal using the G signal of an adjacent pixel for each pixel of the image belonging to the first and fourth patterns;
R / B interpolation processing means for obtaining R and B signals using R and B signals of adjacent pixels for each pixel of the images belonging to the second and third patterns;
For each pixel of the image belonging to the first pattern, a B interpolation process for extracting a similar pixel having the closest luminance value from adjacent pixels and obtaining a B signal based on the luminance value of the similar pixel and the color difference signal Cb Means,
For each pixel of the image belonging to the fourth pattern, an R interpolation process for extracting a similar pixel having the closest luminance value from adjacent pixels and obtaining an R signal based on the luminance value of the similar pixel and the color difference signal Cr And an image interpolation device.
Y=0.299×R(x',y')+0.587×G(x',y')+0.114×B(x',y')
Cb=-0.169×R(x',y')-0.331×G(x',y')+0.5×B(x',y')
YG=Y×G(x,y)/G(x',y')
b=YG+1.772×Cb
ただし、Yは前記類似画素の輝度値、R(x',y'), G(x',y'),B(x',y')は前記類似画素のR,G,B信号、G(x,y)は第1パターンに属する画像の画素のG信号、bは前記B補間処理手段により求められる前記第1パターンに属する画像の画素のB信号、YGは修正輝度値である。The image interpolation apparatus according to claim 8, wherein the B interpolation processing unit obtains the B signal according to the following equation.
Y = 0.299 × R (x ′, y ′) + 0.587 × G (x ′, y ′) + 0.114 × B (x ′, y ′)
Cb = −0.169 × R (x ′, y ′) − 0.331 × G (x ′, y ′) + 0.5 × B (x ′, y ′)
YG = Y × G (x, y) / G (x ′, y ′)
b = YG + 1.772 × Cb
Where Y is the luminance value of the similar pixel, R (x ′, y ′), G (x ′, y ′), B (x ′, y ′) are the R, G, B signals of the similar pixel, G (x, y) is the G signal of the pixels of the image belonging to the first pattern, b is the B signal of the pixels of the image belonging to the first pattern obtained by the B interpolation processing means, and YG is the corrected luminance value.
Y=0.299×R(x',y')+0.587×G(x',y')+0.114×B(x',y')
Cr=0.5×R(x',y')-0.419×G(x',y')-0.081×B(x',y')
YG=Y×G(x,y)/G(x',y')
r=YG+1.402×Cr
ただし、Yは前記類似画素の輝度値、R(x',y'), G(x',y'),B(x',y')は前記類似画素のR,G,B信号、G(x,y)は第4パターンに属する画像の画素のG信号、rは前記R補間処理手段により求められる前記第4パターンに属する画像の画素のR信号、YGは修正輝度値である。The image interpolation apparatus according to claim 10, wherein the R interpolation processing unit obtains the R signal according to the following equation.
Y = 0.299 × R (x ′, y ′) + 0.587 × G (x ′, y ′) + 0.114 × B (x ′, y ′)
Cr = 0.5 × R (x ′, y ′) − 0.419 × G (x ′, y ′) − 0.081 × B (x ′, y ′)
YG = Y × G (x, y) / G (x ′, y ′)
r = YG + 1.402 × Cr
Where Y is the luminance value of the similar pixel, R (x ′, y ′), G (x ′, y ′), B (x ′, y ′) are the R, G, B signals of the similar pixel, G (x, y) is the G signal of the pixels of the image belonging to the fourth pattern, r is the R signal of the pixels of the image belonging to the fourth pattern obtained by the R interpolation processing means, and YG is the corrected luminance value.
Y=0.299×R(x',y')+0.587×G(x',y')+0.114×B(x',y')
Cb=-0.169×R(x',y')-0.331×G(x',y')+0.5×B(x',y')
YG=Y×
(0.587×G(x,y)+0.299×R(x,y))/(0.587×G(x',y')+0.299×R(x',y'))
b=YG+1.772×Cb
ただし、Yは前記類似画素の輝度値、R(x',y'), G(x',y'),B(x',y')は前記類似画素のR,G,B信号、G(x,y)は第1パターンに属する画像の画素のG信号、bは前記B補間処理手段により求められる前記第1パターンに属する画像の画素のB信号、YGは修正輝度値である。The image interpolation apparatus according to claim 14, wherein the B interpolation processing unit obtains the B signal according to the following equation.
Y = 0.299 × R (x ′, y ′) + 0.587 × G (x ′, y ′) + 0.114 × B (x ′, y ′)
Cb = −0.169 × R (x ′, y ′) − 0.331 × G (x ′, y ′) + 0.5 × B (x ′, y ′)
YG = Y ×
(0.587 × G (x, y) + 0.299 × R (x, y)) / (0.587 × G (x ', y') + 0.299 × R (x ', y'))
b = YG + 1.772 × Cb
Where Y is the luminance value of the similar pixel, R (x ′, y ′), G (x ′, y ′), B (x ′, y ′) are the R, G, B signals of the similar pixel, G (x, y) is the G signal of the pixels of the image belonging to the first pattern, b is the B signal of the pixels of the image belonging to the first pattern obtained by the B interpolation processing means, and YG is the corrected luminance value.
Y=0.299×R(x',y')+0.587×G(x',y')+0.114×B(x',y')
Cr=0.5×R(x',y')-0.419×G(x',y')-0.081×B(x',y')
YG=Y×
(0.587×G(x,y)+0.114×B(x,y))/(0.587×G(x',y')+0.114×B(x',y'))
r=YG+1.402×Cr
ただし、Yは前記類似画素の輝度値、R(x',y'), G(x',y'),B(x',y')は前記類似画素のR,G,B信号、G(x,y)は第4パターンに属する画像の画素のG信号、rは前記R補間処理手段により求められる前記第4パターンに属する画像の画素のR信号、YGは修正輝度値である。The image interpolation apparatus according to claim 16, wherein the R interpolation processing unit obtains the R signal according to the following equation.
Y = 0.299 × R (x ′, y ′) + 0.587 × G (x ′, y ′) + 0.114 × B (x ′, y ′)
Cr = 0.5 × R (x ′, y ′) − 0.419 × G (x ′, y ′) − 0.081 × B (x ′, y ′)
YG = Y ×
(0.587 × G (x, y) + 0.114 × B (x, y)) / (0.587 × G (x ', y') + 0.114 × B (x ', y'))
r = YG + 1.402 × Cr
Where Y is the luminance value of the similar pixel, R (x ′, y ′), G (x ′, y ′), B (x ′, y ′) are the R, G, B signals of the similar pixel, G (x, y) is the G signal of the pixels of the image belonging to the fourth pattern, r is the R signal of the pixels of the image belonging to the fourth pattern obtained by the R interpolation processing means, and YG is the corrected luminance value.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001006428A JP4495355B2 (en) | 2001-01-15 | 2001-01-15 | Image interpolation device |
US10/043,127 US6900833B2 (en) | 2001-01-15 | 2002-01-14 | Image interpolating device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001006428A JP4495355B2 (en) | 2001-01-15 | 2001-01-15 | Image interpolation device |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2002218483A JP2002218483A (en) | 2002-08-02 |
JP2002218483A5 JP2002218483A5 (en) | 2008-01-31 |
JP4495355B2 true JP4495355B2 (en) | 2010-07-07 |
Family
ID=18874318
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001006428A Expired - Fee Related JP4495355B2 (en) | 2001-01-15 | 2001-01-15 | Image interpolation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4495355B2 (en) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000023174A (en) * | 1998-07-01 | 2000-01-21 | Ricoh Co Ltd | Image processor and image processing method |
JP2000188762A (en) * | 1998-12-21 | 2000-07-04 | Nikon Corp | Interpolation processing unit and recording medium stored with interpolation processing program |
JP2000278503A (en) * | 1999-03-23 | 2000-10-06 | Minolta Co Ltd | Device and method for bayer interpolation and recording medium recording bayer interpolation program |
JP2000341701A (en) * | 1999-05-25 | 2000-12-08 | Nikon Corp | Interpolation processor and storage medium recording interpolation processing program |
JP2001061157A (en) * | 1999-06-14 | 2001-03-06 | Nikon Corp | Image processing method, machine-readable recording medium with image processing program recorded therein and image processor |
JP2002218484A (en) * | 2001-01-18 | 2002-08-02 | Asahi Optical Co Ltd | Image interpolation device |
JP2002218482A (en) * | 2001-01-15 | 2002-08-02 | Asahi Optical Co Ltd | Image interpolation device |
JP2002223451A (en) * | 2001-01-26 | 2002-08-09 | Asahi Optical Co Ltd | Image interpolation device |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11122626A (en) * | 1997-10-17 | 1999-04-30 | Nikon Corp | Image processing method, system and record medium recording image processing program |
JPH11331858A (en) * | 1998-05-15 | 1999-11-30 | Fuji Film Microdevices Co Ltd | Picture signal processor and medium recording program |
-
2001
- 2001-01-15 JP JP2001006428A patent/JP4495355B2/en not_active Expired - Fee Related
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000023174A (en) * | 1998-07-01 | 2000-01-21 | Ricoh Co Ltd | Image processor and image processing method |
JP2000188762A (en) * | 1998-12-21 | 2000-07-04 | Nikon Corp | Interpolation processing unit and recording medium stored with interpolation processing program |
JP2000278503A (en) * | 1999-03-23 | 2000-10-06 | Minolta Co Ltd | Device and method for bayer interpolation and recording medium recording bayer interpolation program |
JP2000341701A (en) * | 1999-05-25 | 2000-12-08 | Nikon Corp | Interpolation processor and storage medium recording interpolation processing program |
JP2001061157A (en) * | 1999-06-14 | 2001-03-06 | Nikon Corp | Image processing method, machine-readable recording medium with image processing program recorded therein and image processor |
JP2002218482A (en) * | 2001-01-15 | 2002-08-02 | Asahi Optical Co Ltd | Image interpolation device |
JP2002218484A (en) * | 2001-01-18 | 2002-08-02 | Asahi Optical Co Ltd | Image interpolation device |
JP2002223451A (en) * | 2001-01-26 | 2002-08-09 | Asahi Optical Co Ltd | Image interpolation device |
Also Published As
Publication number | Publication date |
---|---|
JP2002218483A (en) | 2002-08-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11244209B2 (en) | Image processing device, imaging device, and image processing method | |
JP5016255B2 (en) | Noise reduction apparatus, control method thereof, control program thereof, imaging apparatus, and digital camera | |
US20190098188A1 (en) | Image processing method and apparatus of terminal, and terminal | |
JPH10200906A (en) | Image pickup signal processing method, image pickup signal processing unit, and recording medium readable by machine | |
CN104756488A (en) | Signal processing device, signal processing method and signal processing program | |
JP4548390B2 (en) | Imaging apparatus and signal processing method | |
JP3905708B2 (en) | Image interpolation device | |
US7046277B2 (en) | Image interpolating device, including interpolation and modification processors | |
JP4334150B2 (en) | Image interpolation device | |
US7106341B2 (en) | Image interpolating device | |
US6900833B2 (en) | Image interpolating device | |
JPH06153087A (en) | Method for correcting picture element defect | |
JP5673186B2 (en) | Imaging apparatus and interpolation processing method of imaging apparatus | |
JP5818568B2 (en) | Image processing apparatus and control method thereof | |
JP5898428B2 (en) | Image processing apparatus and control method thereof | |
JP4495355B2 (en) | Image interpolation device | |
JP4334152B2 (en) | Image interpolation device | |
JP4334151B2 (en) | Image interpolation device | |
JP4666786B2 (en) | Image interpolation device | |
JP5036524B2 (en) | Image processing apparatus, image processing method, program, and imaging apparatus | |
JP2003134523A (en) | Image pickup apparatus and method | |
KR100996797B1 (en) | Image processing apparatus, image processing method, and program for achieving image processing | |
JP2002232903A (en) | Image interpolation device | |
JP5139350B2 (en) | Image processing apparatus, image processing method, and imaging apparatus | |
JP2009182733A (en) | Image data generation method, image data generation apparatus, and information code reading apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071212 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071212 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20080425 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20091016 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100406 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100409 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130416 Year of fee payment: 3 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130416 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140416 Year of fee payment: 4 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |