[go: up one dir, main page]

JP4934183B2 - Image signal processing method - Google Patents

Image signal processing method Download PDF

Info

Publication number
JP4934183B2
JP4934183B2 JP2009236043A JP2009236043A JP4934183B2 JP 4934183 B2 JP4934183 B2 JP 4934183B2 JP 2009236043 A JP2009236043 A JP 2009236043A JP 2009236043 A JP2009236043 A JP 2009236043A JP 4934183 B2 JP4934183 B2 JP 4934183B2
Authority
JP
Japan
Prior art keywords
pixel data
data
pixel
correlation
target pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009236043A
Other languages
Japanese (ja)
Other versions
JP2010016883A (en
Inventor
勝 長田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2009236043A priority Critical patent/JP4934183B2/en
Publication of JP2010016883A publication Critical patent/JP2010016883A/en
Application granted granted Critical
Publication of JP4934183B2 publication Critical patent/JP4934183B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Description

本発明は、画像信号処理方法に関し、特にディジタルカメラや画像入力装置等における実在しない仮想画素に対して実在する画素からの画素データを用いて補間を施す信号処理に適用して良好な結果を得るものである。   The present invention relates to an image signal processing method, and in particular, obtains good results when applied to signal processing in which interpolation is performed using pixel data from existing pixels for non-existing virtual pixels in a digital camera, an image input device, or the like. Is.

ディジタルカメラでは、固体撮像デバイスに2次元配列された撮像素子、いわゆる画素数によって得られる画像の解像度が左右されてきた。固体撮像デバイスの一定の面積に形成する画素数が多いほど解像度の向上が期待されている。また、撮像素子が同数の場合撮像素子のサイズが大きいほどノイズの影響等が少なく、高感度な画質が得られる。   In a digital camera, the resolution of an image obtained by an image pickup device that is two-dimensionally arranged on a solid-state image pickup device, that is, the number of pixels has been influenced. As the number of pixels formed in a certain area of the solid-state imaging device increases, the improvement in resolution is expected. When the number of image sensors is the same, the larger the image sensor size, the less the influence of noise and the like, and a high-sensitivity image quality can be obtained.

上述した解像度と高感度を同時に考慮する。このとき、一定の面積に形成する画素数の増加にともない撮像素子のサイズが小さくなる関係は二律背反的にたとえば、画素数の向上による解像度向上効果とサイズ減少の感度低下効果とが同時に作用することになる。これによって固体撮像デバイスで得られる画像には画質に限界が生じる。   Consider the above resolution and high sensitivity simultaneously. At this time, the relationship in which the size of the image sensor becomes smaller as the number of pixels formed in a certain area increases is contradictory. For example, the resolution improvement effect due to the increase in the number of pixels and the sensitivity reduction effect due to the size reduction act simultaneously. become. This limits the image quality of images obtained with a solid-state imaging device.

特許文献1に記載の固体撮像装置および信号処理方法で固体撮像デバイスは、この問題を考慮して、撮像素子が隣接する素子に対して行列(縦横)方向に画素ピッチの半分ずつ画素ずらして撮像素子を配設形成させている。この画素配列、いわゆるハニカム配列によって所定の空間において最も多くの画素数が形成される。この際に、撮像素子の感度も十分得られるようにサイズを画素数の割りに大きな撮像素子にして画質の低下を防止している。そして、得られた画素データをさらに有効に利用するため、撮像素子が存在する実在画素に対して撮像素子の存在しない位置に仮想画素を補間生成する信号処理を行う。実在画素および仮想画素を合わせて画素とみなすことで、得られる画像は解像度を向上させている。また、信号処理では、得られる輝度データおよび色データの信号成分を高域化することによっても画像の画質を高めている。   In consideration of this problem, the solid-state image pickup device and the signal processing method described in Patent Literature 1 take an image by shifting the pixels by half the pixel pitch in the matrix (vertical / horizontal) direction with respect to adjacent elements. Elements are arranged and formed. With this pixel arrangement, so-called honeycomb arrangement, the largest number of pixels is formed in a predetermined space. At this time, the image quality is prevented from being deteriorated by making the size of the image sensor large enough for the number of pixels so that sufficient sensitivity of the image sensor is obtained. Then, in order to use the obtained pixel data more effectively, signal processing is performed for generating and interpolating virtual pixels at positions where the image sensor does not exist with respect to the actual pixels where the image sensor exists. By combining the real pixel and the virtual pixel as a pixel, the resolution of the obtained image is improved. In the signal processing, the image quality is also improved by increasing the signal components of the obtained luminance data and color data.

特開2000-184386 号公報JP 2000-184386 A

ところで、前述した仮想画素の補間処理では、まず各画素の相関検出を斜め方向、縦横方向について行い、相関の高い方向を検出する。次に検出した相関の高い方向に位置する画素を用いて仮想画素に対する補間処理が行われている。この補間処理により、画像を高画質化させている(適応型補間処理)。   By the way, in the above-described virtual pixel interpolation processing, first, correlation detection of each pixel is performed in the diagonal direction, vertical and horizontal directions, and a direction with high correlation is detected. Next, interpolation processing is performed on the virtual pixels using the pixels located in the direction of high correlation detected. The image quality is improved by this interpolation processing (adaptive interpolation processing).

しかしながら、この仮想画素の補間処理によって得られる画像に画質劣化が生じてしまう場合がある。この画質劣化が生じる状況は、被写体が特定幅の中に有色と無彩色のライン形状を含む際に被写体のこの形状にともなう長手方向に輝度レベルの差が発生する。また、解像度チャートを撮影した際の画像には、解像力の指標となるくさび型のチャート部分に十字に交差するような偽信号の発生や直線が切断して見えるような現象が現れる。   However, image quality deterioration may occur in an image obtained by this virtual pixel interpolation processing. The situation in which this image quality degradation occurs is that when the subject includes a line shape of colored and achromatic colors within a specific width, a difference in luminance level occurs in the longitudinal direction associated with this shape of the subject. In addition, in the image when the resolution chart is taken, a phenomenon such as generation of a false signal that crosses the wedge-shaped chart portion serving as an index of resolving power and a straight line appear to be cut off appears.

本発明はこのような課題に鑑み、仮想画素の補間処理により生じる画質劣化を回避することのできる画像信号処理方法を提供することを提供することを目的とする。   In view of such a problem, an object of the present invention is to provide an image signal processing method capable of avoiding image quality degradation caused by virtual pixel interpolation processing.

本発明は上述の課題を解決するために、被写界からの入射光を三原色に分解し、得られた三原色の入射光を光電変換する複数の撮像素子が隣接する撮像素子の幾何学的な中心に対して行および/または列方向に半ピッチずらして配設され、この撮像素子を実在画素とし、この撮像素子から得られる撮像信号のそれぞれをディジタルの画素データにして、この画素データを用いて画素間に新たな画素を仮想画素として生成する補間処理を施し、輝度および色差データを生成する画像信号処理方法において、この方法は、画素データを2次元に表示した際に、画素データの緑色が正方格子状に得られ、緑色を挟む一方の対角位置の実在画素からの赤色の画素データと、他方の対角位置の実在画素からの青色の画素データとをそれぞれ得る第1の工程と、赤色および青色の実在画素のいずれか一方を対象の画素とした際に、この対象の画素に対する相関判別の領域の頂点を、少なくともこの対象の画素と同色の画素で表わす領域にまで広げて相関判別することにより相関精度を向上させて判定しながら、この相関方向に位置するこの対象の画素と異色の周囲の他方の複数の画素データを用いて緑色の補色の画素データを、輝度データとして生成する第2の工程と、この補色の画素データと緑色の画素データを用いて水平および/または垂直方向に位置する同一色の画素データから仮想画素における輝度データを補間生成し、得られた実在画素および仮想画素それぞれの色属性を基にこの実在画素および仮想画素すべてに対して得られた色属性と異なる赤色、青色および緑色すべてを補間生成する第3の工程と、補間生成した輝度データが有する所定の高周波帯域より高い周波数を通過させて得た高周波成分の信号を各画素の三原色の画素データそれぞれに加算して、各色の画素データの広帯域化処理を行う第4の工程とを含むことを特徴とする。   In order to solve the above-described problems, the present invention decomposes incident light from a scene into three primary colors, and geometrical images of adjacent imaging elements that are obtained by photoelectric conversion of the obtained incident light of the three primary colors. It is arranged with a half-pitch shift in the row and / or column direction with respect to the center. This image sensor is used as a real pixel, and each image signal obtained from this image sensor is converted into digital pixel data. In an image signal processing method for generating luminance and color difference data by performing interpolation processing for generating a new pixel as a virtual pixel between the pixels, this method uses the green color of the pixel data when the pixel data is displayed two-dimensionally. Are obtained in a square lattice pattern, and a first process for obtaining red pixel data from an actual pixel at one diagonal position across green and blue pixel data from an actual pixel at the other diagonal position, respectively. And when one of the red and blue real pixels is the target pixel, the vertex of the correlation determination area for the target pixel is expanded to at least the area represented by the same color pixel as the target pixel. While determining the correlation accuracy to improve the correlation accuracy, the pixel data of the complementary color of green is used as the luminance data by using the other plurality of pixel data around the target pixel located in the correlation direction and the other color. Using the complementary pixel data and the green pixel data, the luminance data in the virtual pixel is interpolated and generated from the pixel data of the same color located in the horizontal and / or vertical direction by using the complementary color pixel data and the green pixel data. Based on the color attributes of each pixel and virtual pixel, all red, blue and green colors that are different from the color attributes obtained for all real pixels and virtual pixels are interpolated. And adding a signal of a high-frequency component obtained by passing a frequency higher than a predetermined high-frequency band included in the luminance data generated by interpolation to the pixel data of the three primary colors of each pixel, And a fourth step of performing a broadbanding process.

また、本発明は上述の課題を解決するために、被写界からの入射光を三原色に分解し、得られた三原色の入射光を光電変換する複数の撮像素子が隣接する撮像素子の幾何学的な中心に対して行および/または列方向に半ピッチずらして配設され、この撮像素子を実在画素とし、この撮像素子から得られる撮像信号のそれぞれをディジタルの画素データにして、この画素データを用いて画素間に新たな画素を仮想画素として生成する補間処理を施し、輝度および色差データを生成する画像信号処理方法において、この方法は、画素データを2次元に表示した際に、画素データの緑色が正方格子状に得られ、緑色を挟む一方の対角位置の実在画素からの赤色の画素データと、他方の対角位置の実在画素からの青色の画素データとをそれぞれ得る第1の工程と、読み出した緑色の画素データを用いて仮想画素も補間処理しながら、輝度データとして緑色の画面を作成する第2の工程と、読み出した画素データのうち、赤色および青色の実在画素のいずれか一方を対象の画素とした際に、この対象の画素に対する相関判別の領域の頂点を、少なくともこの対象の画素と同色の画素で表わす領域にまで広げて相関判別することにより相関精度を向上させて判定しながら、この相関方向に位置するこの対象の画素と異色の周囲の他方の複数の画素データを用いて緑色の補色の画素データを生成するとともに、この補色の画素データを用いて仮想画素も補間処理し、この補色の画面を作成して、輝度データを生成する第3の工程と、得られた緑色の画面と補色の画面とを加算して、実在および仮想画素すべてに対する輝度データを生成し、さらに、得られた実在画素および仮想画素それぞれの色属性を基にこの実在画素および仮想画素すべてに対して得られた色属性と異なる前記赤色、青色および緑色すべてを補間生成する第4の工程と、補間生成した輝度データが有する所定の高周波帯域より高い周波数を通過させて得た高周波成分の信号を各画素の三原色の画素データそれぞれに加算して、各色の画素データの広帯域化する第5の工程とを含むことを特徴とする。   Further, in order to solve the above-described problems, the present invention decomposes incident light from the object scene into three primary colors, and geometricalities of adjacent image pickup elements that are photoelectrically converted from the obtained incident light of the three primary colors. This pixel data is arranged with a half-pitch shift in the row and / or column direction with respect to the center, and this image sensor is an actual pixel, and each image signal obtained from this image sensor is digital pixel data. In an image signal processing method for generating luminance and chrominance data by performing interpolation processing for generating new pixels as virtual pixels between the pixels using this method, the pixel data is displayed when the pixel data is displayed two-dimensionally. Are obtained in the form of a square lattice, and the red pixel data from the real pixels at one diagonal position sandwiching the green color and the blue pixel data from the real pixels at the other diagonal position are respectively obtained. The second step of creating a green screen as luminance data while interpolating the virtual pixel using the read green pixel data, and the red and blue real pixels of the read pixel data When one of the pixels is the target pixel, the correlation accuracy is improved by extending the vertex of the correlation determination area for the target pixel to at least the area represented by the same color pixel as the target pixel. And generating pixel data of a complementary color of green using a plurality of other pixel data around the target pixel located in the correlation direction and different colors, and using the pixel data of the complementary color Pixels are also interpolated to create a complementary color screen and generate luminance data, and the resulting green screen and complementary color screen are added to create a real and virtual screen. All of the red, blue, and green colors that are different from the color attributes obtained for all the real pixels and the virtual pixels based on the color attributes of the real pixels and the virtual pixels that are obtained. And interpolating and generating a high frequency component signal obtained by passing a frequency higher than a predetermined high frequency band included in the interpolated luminance data to the pixel data of the three primary colors of each pixel, And a fifth step of broadening the pixel data.

本発明に係る画像信号処理方法によれば、緑色を挟む一方の対角位置の実在画素からの赤色の画素データと、他方の対角位置の実在画素からの青色の画素データとをそれぞれ求め、赤色および青色の実在画素のいずれか一方を対象の画素とした際に、この対象の画素に対する相関判別の領域の頂点を、少なくともこの対象の画素と同色の画素で表わす領域にまで広げて相関判別することにより相関精度を向上させて判定しながら、この相関方向に位置するこの対象の画素と異色の周囲の他方の複数の画素データを用いて緑色の補色の画素データを、輝度データとして生成し、この補色の画素データと緑色の画素データを用いて水平および/または垂直方向に位置する同一色の画素データから仮想画素における輝度データを補間生成し、得られた実在画素および仮想画素それぞれの色属性を基にこの実在画素および仮想画素すべてに対して得られた色属性と異なる赤色、青色および緑色すべてを補間生成し、補間生成した輝度データが有する所定の高周波帯域より高い周波数を通過させて得た高周波成分の信号を各画素の三原色の画素データそれぞれに加算して、各色の画素データを広帯域化処理することにより、画質低下の発生を抑えて解像度チャートのくさび型形状と十字に交差する偽信号や直線のラインの切断等の現象の発生を抑えることができることから、被写体を撮影した際に生じた現象を、従来よりも大幅に改善することができる。   According to the image signal processing method according to the present invention, the red pixel data from the real pixel at one diagonal position sandwiching the green color, and the blue pixel data from the real pixel at the other diagonal position, respectively, When one of the red and blue real pixels is the target pixel, the correlation is determined by expanding the vertex of the correlation determination area for the target pixel to at least the area represented by the same color pixel as the target pixel. In this way, pixel data of the complementary color of green is generated as luminance data using a plurality of other pixel data around the target pixel located in the correlation direction and the other color surrounding the target pixel in the correlation direction. Using the complementary color pixel data and the green pixel data, the luminance data in the virtual pixel is interpolated and generated from the pixel data of the same color located in the horizontal and / or vertical direction. Based on the color attributes of each real pixel and virtual pixel, all the red, blue and green colors that are different from the color attributes obtained for this real pixel and virtual pixel are interpolated and generated, and the predetermined high frequency possessed by the interpolated luminance data By adding the high-frequency component signal obtained by passing a frequency higher than the band to the pixel data of each of the three primary colors of each pixel, the pixel data of each color is widened to suppress the occurrence of image quality degradation and Since it is possible to suppress the occurrence of a phenomenon such as a false signal crossing a wedge shape and a cross or a straight line cut, the phenomenon that occurs when the subject is photographed can be significantly improved compared to the prior art.

また、本発明に係る画像信号処理方法によれば、緑色を挟む一方の対角位置の実在画素からの赤色の画素データと、他方の対角位置の実在画素からの青色の画素データとをそれぞれ求め、読み出した緑色の画素データを用いて仮想画素も補間処理しながら、輝度データとして緑色の画面を作成し、読み出した画素データのうち、赤色および青色の実在画素のいずれか一方を対象の画素とした際に、この対象の画素に対する相関判別の領域の頂点を、少なくともこの対象の画素と同色の画素で表わす領域にまで広げて相関判別することにより相関精度を向上させて判定しながら、この相関方向に位置するこの対象の画素と異色の周囲の他方の複数の画素データを用いて緑色の補色の画素データを生成するとともに、この補色の画素データを用いて仮想画素も補間処理し、この補色の画面を作成して、輝度データを生成し、得られた緑色の画面と補色の画面とを加算して、実在および仮想画素すべてに対する輝度データを生成し、さらに、得られた実在画素および仮想画素それぞれの色属性を基にこの実在画素および仮想画素すべてに対して得られた色属性と異なる前記赤色、青色および緑色すべてを補間生成し、補間生成した輝度データが有する所定の高周波帯域より高い周波数を通過させて得た高周波成分の信号を各画素の三原色の画素データそれぞれに加算して、各色の画素データの広帯域化することにより、画質低下の発生を抑えて解像度チャートのくさび型形状と十字に交差する偽信号や直線のラインの切断等の現象の発生を抑えることができることから、被写体を撮影した際に生じた現象を、従来よりも大幅に改善することができる。   Further, according to the image signal processing method of the present invention, the red pixel data from the real pixel at one diagonal position sandwiching the green color, and the blue pixel data from the real pixel at the other diagonal position, respectively. The green pixel is created as luminance data while interpolating the virtual pixel using the read green pixel data, and either one of the red and blue real pixels of the read pixel data is the target pixel In this case, the vertex of the correlation determination area for the target pixel is expanded to at least the area represented by the same color pixel as the target pixel, and the correlation accuracy is improved by determining the correlation. The pixel data of the complementary color of green is generated using a plurality of other pixel data around the target pixel located in the correlation direction and the different color, and the pixel data of the complementary color is used. Virtual pixels are also interpolated, and this complementary color screen is created to generate luminance data. The resulting green screen and complementary color screen are added to generate luminance data for all real and virtual pixels, Further, based on the color attributes of the actual pixels and virtual pixels obtained, all the red, blue and green colors that are different from the color attributes obtained for all of the real pixels and virtual pixels are interpolated to generate the interpolated luminance. By adding the high-frequency component signal obtained by passing a higher frequency than the predetermined high-frequency band of the data to the pixel data of the three primary colors of each pixel, the pixel data of each color is widened, thereby causing a reduction in image quality. The subject was photographed because it can suppress the occurrence of phenomena such as false signals crossing the wedge shape of the resolution chart and the cutting of straight lines. Phenomenon occurs in the can than conventional greatly improved.

本発明に係る画像信号処理方法を適用したディジタルカメラの概略的なブロック図である。1 is a schematic block diagram of a digital camera to which an image signal processing method according to the present invention is applied. 図1のディジタルカメラにて用いた撮像部を入射光側から見た模式図である。It is the schematic diagram which looked at the image pick-up part used with the digital camera of FIG. 1 from the incident light side. 図1のディジタルカメラの補間処理部の概略的な構成を示すブロック図である。FIG. 2 is a block diagram illustrating a schematic configuration of an interpolation processing unit of the digital camera of FIG. 1. 図1のディジタルカメラの広帯域化処理部の概略的な構成を示すブロック図である。FIG. 2 is a block diagram illustrating a schematic configuration of a broadband processing unit of the digital camera of FIG. 1. 図1のディジタルカメラの動作を説明するメインフローチャートである。3 is a main flowchart for explaining the operation of the digital camera of FIG. 1. 図5の本撮像時に得られる実在画素の位置および色の関係を説明する模式図である。It is a schematic diagram explaining the relationship between the position and color of the real pixel obtained at the time of the main imaging of FIG. 図5に示した静止画補間信号処理の手順を説明するフローチャートである。6 is a flowchart illustrating a procedure of still image interpolation signal processing shown in FIG. 5. 図7に示した高周波輝度データYHを市松状に生成する手順を説明するフローチャートである。The high-frequency luminance data Y H shown in FIG. 7 is a flowchart illustrating a procedure for generating in a checkered pattern. 図8に示した適応処理の手順を説明するフローチャートである。It is a flowchart explaining the procedure of the adaptive process shown in FIG. 図9に示した斜め相関処理の手順を説明するフローチャートである。10 is a flowchart for explaining the procedure of the diagonal correlation processing shown in FIG. 9. 図9に示した垂直/水平相関処理の手順を説明するフローチャートである。10 is a flowchart for explaining a procedure of vertical / horizontal correlation processing shown in FIG. 9. 図8に示した手順により生成された画素データMgおよび撮像時に得られた画素データG の位置関係を説明する模式図である。FIG. 9 is a schematic diagram illustrating a positional relationship between pixel data Mg generated by the procedure shown in FIG. 8 and pixel data G obtained at the time of imaging. 図12の画素データG, Mg を高周波輝度データYHとして扱った際のパターンを示す模式図である。Pixel data G of Figure 12, the Mg is a schematic diagram showing a pattern when treated as a high-frequency luminance data Y H. 撮像により画素から得られる色および信号レベルならびに従来のアルゴリズムで生成する高周波輝度データYHの方向を示すフラグで表した模式図である。It is a schematic diagram represented by a flag indicating the color and signal level obtained from a pixel by imaging and the direction of high-frequency luminance data Y H generated by a conventional algorithm. 図11の処理手順のうち、新たに追加した垂直/水平相関判定処理による訂正箇所を示す模式図である。FIG. 12 is a schematic diagram showing a correction part by a newly added vertical / horizontal correlation determination process in the processing procedure of FIG. 図8のフラグパターンの比較補正処理に用いる画素の位置関係を示す模式図である。FIG. 9 is a schematic diagram illustrating a positional relationship of pixels used in the flag pattern comparison correction process of FIG. 8. 図8のフラグパターンの比較補正処理の結果を示す模式図である。It is a schematic diagram which shows the result of the comparison correction process of the flag pattern of FIG. 図7の輝度補間処理の手順を説明するフローチャートである。It is a flowchart explaining the procedure of the brightness | luminance interpolation process of FIG. 図18の輝度補間処理に用いるLPF 処理の原理を説明する模式図である。FIG. 19 is a schematic diagram for explaining the principle of LPF processing used in the luminance interpolation processing of FIG. 図19のLPF 処理のうち、水平方向に補間処理して得られる補間パターンである。FIG. 20 is an interpolation pattern obtained by performing an interpolation process in the horizontal direction in the LPF process of FIG. 図19のLPF 処理のうち、垂直方向に補間処理して得られる補間パターンである。FIG. 20 shows an interpolation pattern obtained by performing interpolation processing in the vertical direction in the LPF processing of FIG. 図7の色補間処理の手順を説明するフローチャートである。It is a flowchart explaining the procedure of the color interpolation process of FIG. 図5の静止画用広帯域化処理の手順を説明するフローチャートである。6 is a flowchart for explaining a procedure of a still image widening process in FIG. 5. 被写界の細線間隔が比較的大きい場合の細線と各画素データの色、信号レベル、およびフラグの関係を示す模式図である。It is a schematic diagram which shows the relationship between a thin line | wire, the color of each pixel data, a signal level, and a flag in case the thin line space | interval of an object field is comparatively large. 図11の処理手順のうち、新たに追加した垂直/水平相関判定処理による訂正箇所を示す模式図である。FIG. 12 is a schematic diagram showing a correction part by a newly added vertical / horizontal correlation determination process in the processing procedure of FIG. 被写界の細線間隔が比較的小さい場合の細線と各画素データの色、信号レベル、およびフラグの関係を示す模式図である。It is a schematic diagram which shows the relationship between the color of a thin line | wire, each pixel data, a signal level, and a flag in case the thin line space | interval of a field is comparatively small. 図11の処理手順のうち、新たに追加した垂直/水平相関判定処理による訂正箇所を示す模式図である。FIG. 12 is a schematic diagram showing a correction part by a newly added vertical / horizontal correlation determination process in the processing procedure of FIG. 図8のフラグパターンの比較補正処理の結果を示す模式図である。It is a schematic diagram which shows the result of the comparison correction process of the flag pattern of FIG. 色G に着目した画素パターンを示す模式図である。FIG. 6 is a schematic diagram illustrating a pixel pattern focused on a color G. 色Mgに着目した画素パターンを示す模式図である。It is a schematic diagram which shows the pixel pattern which paid its attention to color Mg. 色G での補間を施して得られるプレーンな画面を示す模式図である。FIG. 4 is a schematic diagram showing a plain screen obtained by performing interpolation with a color G 1. 色G での補間を施して得られるプレーンな画面を示す模式図である。FIG. 4 is a schematic diagram showing a plain screen obtained by performing interpolation with a color G 1.

次に添付図面を参照して本発明による画像信号処理方法の実施例を詳細に説明する。図1を参照すると、本発明による画像信号処理方法の実施例は、ディジタルカメラ10に適用した場合について記述し、適用する画像信号処理方法の動作手順は、図5に示すメインフローチャートの静止画補間信号処理(SUB1)および静止画用広帯域化処理(SUB2)に従って動作させる。静止画における信号処理手順は、図5の静止画補間信号処理(SUB1)で緑色を挟む一方の対角位置の実在画素からの赤色の画素データと、他方の対角位置の実在画素からの青色の画素データとをそれぞれ求め、赤色および青色の実在画素のいずれか一方を対象の画素とした際に、この対象の画素に対する相関判別の領域の頂点を、少なくともこの対象の画素と同色の画素で表わす領域にまで広げて相関判別することにより相関精度を向上させて判定しながら、この相関方向に位置するこの対象の画素と異色の周囲の他方の複数の画素データを用いて緑色の補色の画素データを、輝度データとして生成し、この補色の画素データと緑色の画素データを用いて水平および/または垂直方向に位置する同一色の画素データから仮想画素における輝度データを補間生成し、得られた実在画素および仮想画素それぞれの色属性を基にこの実在画素および仮想画素すべてに対して得られた色属性と異なる赤色、青色および緑色すべてを補間生成し、静止画用広帯域化処理(SUB2)で補間生成した輝度データが有する所定の高周波帯域より高い周波数を通過させて得た高周波成分の信号を各画素の三原色の画素データそれぞれに加算して、各色の画素データを広帯域化処理することにより、画質低下の発生を抑えて解像度チャートのくさび型形状と十字に交差する偽信号や直線のラインの切断等の現象の発生を抑えることができることから、被写体を撮影した際に生じた現象を、従来よりも大幅に改善することができる。   Next, embodiments of the image signal processing method according to the present invention will be described in detail with reference to the accompanying drawings. Referring to FIG. 1, the embodiment of the image signal processing method according to the present invention will be described when applied to a digital camera 10, and the operation procedure of the applied image signal processing method is the still image interpolation of the main flowchart shown in FIG. Operate according to signal processing (SUB1) and wideband processing (SUB2) for still images. The signal processing procedure for a still image includes red pixel data from an actual pixel at one diagonal position sandwiching green in the still image interpolation signal processing (SUB1) of FIG. 5 and blue from an actual pixel at the other diagonal position. When the pixel data is obtained and each of the red and blue real pixels is set as the target pixel, the vertex of the correlation determination area for the target pixel is at least a pixel of the same color as the target pixel. A pixel of complementary green color using a plurality of other pixel data around the target pixel located in the correlation direction and the other plurality of pixel data while making a determination by improving the correlation accuracy by expanding the correlation to the area to be represented. Data is generated as luminance data, and using the complementary pixel data and green pixel data, luminance data in the virtual pixel is obtained from pixel data of the same color located in the horizontal and / or vertical direction. Interpolating and generating all the red, blue and green colors that are different from the color attributes obtained for all the real and virtual pixels based on the color attributes of the real and virtual pixels obtained, The high-frequency component signal obtained by passing a frequency higher than the predetermined high-frequency band of the luminance data interpolated and generated by the still image broadening process (SUB2) is added to the pixel data of the three primary colors of each pixel, By subjecting the pixel data to broadband processing, it is possible to suppress the occurrence of image quality degradation and the occurrence of phenomena such as false signals crossing the wedge shape of the resolution chart and the cutting of straight lines. Phenomena that occur when shooting can be greatly improved compared to the prior art.

本実施例は、本発明と直接関係のない部分について図示および説明を省略する。ここで、信号の参照符号はその現れる接続線の参照番号で表す。   In the present embodiment, illustration and description of portions not directly related to the present invention are omitted. Here, the reference number of the signal is represented by the reference number of the connecting line that appears.

ディジタルカメラ10には、図1に示すように、光学レンズ系12、操作部14、システム制御部18、タイミング信号発生部20、ドライバ部22、メカニカルシャッタ24、撮像部26、前処理部28、信号処理部30、圧縮/伸長処理部32、ストレージ部34、およびモニタ36が備えられている。これら各部を順次説明する。   As shown in FIG. 1, the digital camera 10 includes an optical lens system 12, an operation unit 14, a system control unit 18, a timing signal generation unit 20, a driver unit 22, a mechanical shutter 24, an imaging unit 26, a preprocessing unit 28, A signal processing unit 30, a compression / decompression processing unit 32, a storage unit 34, and a monitor 36 are provided. Each of these parts will be described sequentially.

光学レンズ系12は、たとえば、複数枚の光学レンズを組み合わせて構成されている。光学レンズ系12には、図示しないが、これら光学レンズの配置する位置を調節して画面の画角を操作部14からの操作信号14a に応じて調節するズーム機構や被写体とカメラ10との距離に応じてピント調節する、AF(Automatic Focus :自動焦点)調節機構が含まれている。後述するように操作信号14a は、システムバス16、データバス18a を介してシステム制御部18に供給される。システム制御部18は制御信号18b をシステムバス16に供給する。制御信号18c は、システムバス16から制御信号18c としてタイミング信号発生部20およびドライバ部22に供給される。タイミング信号発生部20およびドライバ部22は供給される制御信号18c に応じて動作して光学レンズ系12に駆動信号22a を出力する。   The optical lens system 12 is configured by combining a plurality of optical lenses, for example. Although not shown in the figure, the optical lens system 12 adjusts the position where these optical lenses are arranged, and adjusts the angle of view of the screen according to the operation signal 14a from the operation unit 14, and the distance between the subject and the camera 10. It includes an AF (Automatic Focus) adjustment mechanism that adjusts the focus according to the focus. As will be described later, the operation signal 14a is supplied to the system controller 18 via the system bus 16 and the data bus 18a. The system control unit 18 supplies a control signal 18b to the system bus 16. The control signal 18c is supplied from the system bus 16 to the timing signal generator 20 and the driver unit 22 as the control signal 18c. The timing signal generator 20 and the driver unit 22 operate according to the supplied control signal 18c and output a drive signal 22a to the optical lens system 12.

操作部14には、図示しないがレリーズシャッタボタンやたとえばモニタ画面に各種の項目を表示させ、表示項目のなかからカーソルを用いて選択する選択機能等がある。操作部14には、これら各種の機能選択のうち、静止画・動画設定部が含まれている。静止画・動画設定部は、設定した結果が別な操作信号として出力している(図示せず)。操作部14で選択された操作は操作信号14a がシステムバス16を介してシステム制御部18に報知される。   Although not shown, the operation unit 14 has a release shutter button, a selection function for displaying various items on a monitor screen, for example, and selecting from the displayed items using a cursor. The operation unit 14 includes a still image / moving image setting unit among these various function selections. The still image / moving image setting unit outputs the set result as another operation signal (not shown). The operation signal 14a is notified to the system control unit 18 via the system bus 16 for the operation selected by the operation unit 14.

システム制御部18は、たとえば CPU(Central Processing Unit :中央演算処理装置)を有する。システム制御部18には、ディジタルカメラ10の動作手順が書き込まれた ROM(Read Only Memory:読み出し専用メモリ)がある。システム制御部18は、信号線18a を介してたとえば、ユーザの操作に伴って操作部14から供給される情報、すなわち操作信号14a とこの ROMが有する情報とを用いて各部の動作を制御する制御信号18b を生成する。システム制御部18は、生成した制御信号18b をシステムバス16を介して上述した光学レンズ系12の駆動だけでなく、タイミング信号発生部20、ドライバ部22に供給するとともに、図示していないが前処理部28、信号処理部30、圧縮/伸長処理部32、ストレージ部34およびモニタ36にも供給している。   The system control unit 18 includes, for example, a CPU (Central Processing Unit). The system control unit 18 includes a ROM (Read Only Memory) in which the operation procedure of the digital camera 10 is written. The system control unit 18 controls the operation of each unit using, for example, information supplied from the operation unit 14 in response to a user operation via the signal line 18a, that is, the operation signal 14a and information stored in the ROM. Signal 18b is generated. The system control unit 18 supplies the generated control signal 18b to the timing signal generation unit 20 and the driver unit 22 in addition to driving the optical lens system 12 described above via the system bus 16, and is not shown. The data is also supplied to the processing unit 28, the signal processing unit 30, the compression / decompression processing unit 32, the storage unit 34, and the monitor 36.

タイミング信号発生部20は、ディジタルカメラ10を動作させる基本クロック(システムクロック)を発生する発振器(図示せず)を有する。発振器にはたとえば、VCO (Voltage Controlled Oscillator)方式等が用いられている。また、タイミング信号発生部20はこの基本クロックをシステム制御部18や信号処理部30等必要とするほとんどすべてのブロックに供給するとともに、基本クロックを分周して様々な信号も生成している。   The timing signal generator 20 includes an oscillator (not shown) that generates a basic clock (system clock) for operating the digital camera 10. For example, a VCO (Voltage Controlled Oscillator) method or the like is used as the oscillator. The timing signal generator 20 supplies the basic clock to almost all the necessary blocks such as the system controller 18 and the signal processor 30, and also divides the basic clock to generate various signals.

特にタイミング信号発生部20は、この基本クロックを用い、制御信号18b に基づいて各部の動作をタイミング調節するタイミング信号20a, 20bを生成する回路を含む。タイミング信号発生部20は、ドライバ部22に生成したタイミング信号20a を供給する。また、タイミング信号発生部20は、前処理部28等の動作タイミングとして供給するようにタイミング信号20b も生成し、供給している。この他、図1に示すように各部にも図示していないが各種のタイミング信号が供給されている。   In particular, the timing signal generator 20 includes a circuit that generates timing signals 20a and 20b that use the basic clock to adjust the timing of the operation of each unit based on the control signal 18b. The timing signal generator 20 supplies the generated timing signal 20a to the driver unit 22. The timing signal generation unit 20 also generates and supplies a timing signal 20b so as to be supplied as an operation timing of the preprocessing unit 28 and the like. In addition, as shown in FIG. 1, various timing signals are supplied to the respective parts, although not shown.

ドライバ部22は、供給されるタイミング信号20a を用いて、所望の駆動信号22a, 22b,および 22c をそれぞれ、生成し、光学レンズ系12、メカニカルシャッタ24、および撮像部26に供給する。駆動信号22c は、静止画用と動画用のモードにも対応して供給している。   The driver unit 22 generates desired drive signals 22a, 22b, and 22c using the supplied timing signal 20a, and supplies them to the optical lens system 12, the mechanical shutter 24, and the imaging unit. The drive signal 22c is supplied corresponding to the still image mode and the moving image mode.

メカニカルシャッタ24は、操作部14のレリーズシャッタボタンの押圧操作に応じて動作する。動作順序は、レリーズシャッタボタンの押圧操作により、たとえば、システムバス16を介して操作信号14a がシステム制御部18に供給され、システム制御部18からの制御信号18b がシステムバス16、および信号線18c を介してドライバ部22に供給される。メカニカルシャッタ24はドライバ部22から供給される駆動信号22b に応じて動作する。メカニカルシャッタ24は、このような順序で動作して制御される。   The mechanical shutter 24 operates in response to the pressing operation of the release shutter button of the operation unit 14. For example, when the release shutter button is pressed, the operation signal 14a is supplied to the system control unit 18 via the system bus 16, and the control signal 18b from the system control unit 18 is supplied to the system bus 16 and the signal line 18c. Is supplied to the driver unit 22 via The mechanical shutter 24 operates according to the drive signal 22b supplied from the driver unit 22. The mechanical shutter 24 is operated and controlled in this order.

撮像部26は光学ローパスフィルタ26a および色フィルタ26b が固体撮像素子 (Charge Coupled Device:CCD )26c の入射光側に一体的に設けられた単板カラーCCD センサである。これは、光学レンズ系12で結像された光学像が固体撮像素子26c の受光部の各撮像素子に到達した光量に応じた出力信号27を出力する。   The imaging unit 26 is a single-plate color CCD sensor in which an optical low-pass filter 26a and a color filter 26b are integrally provided on the incident light side of a solid-state imaging device (Charge Coupled Device: CCD) 26c. This outputs an output signal 27 corresponding to the amount of light that the optical image formed by the optical lens system 12 reaches each image sensor of the light receiving unit of the solid-state image sensor 26c.

撮像部26は、入射光の側から順次に光学ローパスフィルタ26a 、色フィルタ26b 、および固体撮像素子26c が配設され、一体的に形成されている。色フィルタ26b は単板である。色フィルタ26b の色フィルタセグメント260 と撮像素子262 とは、一対一の対応関係にある。色フィルタ26b は、たとえば、図2に示すような三原色RGB の色フィルタセグメント260 が配置されている。この色フィルタセグメント260 の配置パターンは、色G が正方格子状に配され、さらに色G を挟んで対角位置に同色R,または Bが配される完全市松に配するパターンである。   In the imaging unit 26, an optical low-pass filter 26a, a color filter 26b, and a solid-state imaging element 26c are sequentially arranged from the incident light side, and are integrally formed. The color filter 26b is a single plate. The color filter segment 260 of the color filter 26b and the image sensor 262 have a one-to-one correspondence. In the color filter 26b, for example, a color filter segment 260 of the three primary colors RGB as shown in FIG. 2 is arranged. The arrangement pattern of the color filter segments 260 is a pattern arranged in a completely checkered pattern in which the color G is arranged in a square lattice and the same color R or B is arranged diagonally across the color G 1.

この色パターンは、以後、この色フィルタ配置はハニカム型G 正方格子RB完全市松パターンという。図2に示した画素数は、14個のうち、本来の色G が6個、色R, Bがそれぞれ4個ずつである。上述した色G の正方格子状とは、画素の形状を示すものでなく、画素の配置形状を示している。画素の形状は多角形データとえば四角形、六角形、八角形等がある。   This color pattern is hereinafter referred to as a honeycomb-type G square lattice RB complete checkered pattern. The number of pixels shown in FIG. 2 is 6 of the 14 original colors G and 4 each of the colors R and B. The above-mentioned square lattice shape of the color G does not indicate the shape of the pixel but indicates the arrangement shape of the pixel. The shape of the pixel includes polygonal data such as a quadrangle, a hexagon, and an octagon.

撮像素子には、CCD や後段で示すMOS(Metal Oxide Semiconductor: 金属酸化型半導体)タイプの固体撮像デバイスが適用される。撮像部26では、供給される駆動信号22c に応じて光電変換によって得られた信号電荷を所定のタイミングとして、たとえば、垂直ブランキング期間にフィールドシフトにより垂直転送路に読み出され、この垂直転送路をラインシフトした信号電荷が水平転送路に供給される。この水平転送路を経た信号電荷は図示しない出力回路による電荷/電圧変換によってアナログ電圧信号27にされて前処理部28に出力される。固体撮像素子26c は、CCD タイプでは信号電荷の読出しモードに応じて間引き読出しや全画素読出しを用いる。   A CCD or a metal oxide semiconductor (MOS) type solid-state imaging device shown later is applied to the imaging device. In the imaging unit 26, the signal charge obtained by photoelectric conversion in accordance with the supplied drive signal 22c is read out to the vertical transfer path by a field shift, for example, in the vertical blanking period as a predetermined timing, and this vertical transfer path The signal charge obtained by shifting the line is supplied to the horizontal transfer path. The signal charge that has passed through the horizontal transfer path is converted into an analog voltage signal 27 by charge / voltage conversion by an output circuit (not shown) and output to the preprocessing unit 28. For the CCD type, the solid-state imaging device 26c uses thinning readout or all-pixel readout according to the signal charge readout mode.

前処理部28は、図示しないが相関二重サンプリング部(Correlated Double Sampling :以下、CDS という)およびA/D 変換部を有している。CDS 部は、アナログ電圧信号に含まれる1/f 雑音やリセット雑音の低減に寄与して、ノイズ除去を行う。また、前処理部28はここでガンマ補正を行うようにしてもよい。ノイズ成分が除去された出力信号がA/D 変換部に送られる。A/D 変換部は、供給されるアナログ信号の信号レベルを所定の量子化レベルにより量子化してディジタル信号29に変換するA/D 変換器を有する。A/D 変換部は、タイミング信号発生部20から供給される変換クロック等のタイミング信号20b により変換したディジタル信号29を信号処理部30に出力する。   Although not shown, the preprocessing unit 28 includes a correlated double sampling unit (hereinafter referred to as CDS) and an A / D conversion unit. The CDS unit removes noise by contributing to the reduction of 1 / f noise and reset noise contained in the analog voltage signal. Further, the preprocessing unit 28 may perform gamma correction here. The output signal from which the noise component has been removed is sent to the A / D converter. The A / D converter includes an A / D converter that quantizes the signal level of the supplied analog signal with a predetermined quantization level and converts it into a digital signal 29. The A / D converter outputs the digital signal 29 converted by the timing signal 20b such as a conversion clock supplied from the timing signal generator 20 to the signal processor 30.

信号処理部30には、フレームメモリ機能を有するデータ補正部30a 、補間処理部30b 、および広帯域化処理部30c が含まれる。さらに、データ補正部30a には、図示しないがバッファ機能としてフレームメモリおよび補正処理部が含まれている。補間処理部30b は、あらわに示していないがガンマ補正やホワイトバランス等の調整を行う機能を有する。ここでのガンマ補正は、消費電力や回路規模を小さくして信号処理のビット数を低減すること等も可能にしている。このガンマ補正処理をたとえば、前処理部28ですでに行っている場合、省略する。A/D 変換によりディジタル化された画像データ29がデータ補正部30a のフレームメモリに供給され、そこに記憶される。フレームメモリは、読み出す領域をずらしながら繰り返して画素データを読み出すことから、非破壊型のメモリを用いると有利である。また、フレームメモリには、システム制御部18からの制御信号18b に含まれる書込み/読出しイネーブル信号、クロック信号等の制御に関わる信号をシステムバス16を介した制御信号18d として供給されている。データ補正部30a は、処理として、たとえば、各色フィルタに対応した画像データのレベルを後段の信号処理に適したレベルに合わせるため各色フィルタごとにゲイン調整も行っている。また、データ補正部30a は、記憶した画像データを所定の順序で画像データ38を補間処理部30b に出力する。   The signal processing unit 30 includes a data correction unit 30a having a frame memory function, an interpolation processing unit 30b, and a broadband processing unit 30c. Further, although not shown, the data correction unit 30a includes a frame memory and a correction processing unit as a buffer function. The interpolation processing unit 30b has a function of performing adjustments such as gamma correction and white balance, although not shown. Here, the gamma correction also makes it possible to reduce the number of bits for signal processing by reducing power consumption and circuit scale. If this gamma correction processing is already performed by the preprocessing unit 28, for example, the description is omitted. The image data 29 digitized by A / D conversion is supplied to the frame memory of the data correction unit 30a and stored therein. Since the frame memory repeatedly reads out pixel data while shifting the reading area, it is advantageous to use a non-destructive memory. The frame memory is supplied with signals relating to control such as a write / read enable signal and a clock signal included in the control signal 18b from the system control unit 18 as a control signal 18d via the system bus 16. For example, the data correction unit 30a also performs gain adjustment for each color filter in order to adjust the level of the image data corresponding to each color filter to a level suitable for subsequent signal processing. Further, the data correction unit 30a outputs the stored image data to the interpolation processing unit 30b in a predetermined order.

補間処理部30b は、本実施例では静止画補間および動画補間を行う機能を有し、供給される画像データ38の供給先をユーザの要望に応じて切り換えて各部に供給している。このうち、静止画補間を行う構成について説明する。補間処理部30b は、図3に示すように、輝度補間展開部40および色補間展開部42を備えている。補間処理部30b は、実在画素および実在画素の中間に位置する仮想画素において高域成分を含む高周波輝度データYHおよび三原色データを補間生成する機能を有する。輝度補間展開部40および色補間展開部42には、データ補正部30a から画像データ38がそれぞれ供給されている。画像データ38は、撮像素子の実在する実在画素からの画素データである。 In the present embodiment, the interpolation processing unit 30b has a function of performing still image interpolation and moving image interpolation, and switches the supply destination of the supplied image data 38 according to the user's request and supplies it to each unit. Among these, a configuration for performing still image interpolation will be described. The interpolation processing unit 30b includes a luminance interpolation developing unit 40 and a color interpolation developing unit 42 as shown in FIG. Interpolation processing unit 30b has a function for interpolating generates a high-frequency luminance data Y H and the three primary colors data including high-frequency component in the virtual pixel located in the middle of the actual pixel and existing pixels. Image data 38 is supplied from the data correction unit 30a to the luminance interpolation development unit 40 and the color interpolation development unit 42, respectively. The image data 38 is pixel data from actual pixels that exist in the image sensor.

輝度補間展開部40には、高周波輝度データ作成部400 および輝度データ補間処理部402 が含まれる。高周波輝度データ作成部400 は、供給される画素データを用いて実在画素または仮想画素の位置における高域成分を含む高周波輝度データYH(404)を生成する。本実施例の高周波輝度データ作成部400 は、実在画素の位置での高周波輝度データYHの算出を行う。この算出は、供給される画素データ38を用いてたとえば、供給される色に対する相関関係がどの方向にあるか検出し、検出結果に応じた高周波輝度データYH(404)を生成している。より詳細な算出については後段で説明する。輝度データ補間展開部402 は、供給される高周波輝度データYH(404)を用いて仮想画素の位置における高周波輝度データYHを生成する。輝度補間展開部40は、このように高周波輝度データYHの生成および補間により実在画素および仮想画素すべての位置での高周波輝度データYH (44) を広帯域化処理部30c に出力する。 The luminance interpolation development unit 40 includes a high-frequency luminance data creation unit 400 and a luminance data interpolation processing unit 402. The high-frequency luminance data creation unit 400 generates high-frequency luminance data Y H (404) including a high frequency component at the position of the real pixel or the virtual pixel using the supplied pixel data. The high frequency luminance data creation unit 400 of the present embodiment calculates the high frequency luminance data Y H at the position of the actual pixel. In this calculation, for example, the direction of the correlation with the supplied color is detected using the supplied pixel data 38, and high-frequency luminance data Y H (404) corresponding to the detection result is generated. More detailed calculation will be described later. The luminance data interpolation development unit 402 generates the high frequency luminance data Y H at the position of the virtual pixel using the supplied high frequency luminance data Y H (404). The luminance interpolation development unit 40 outputs the high frequency luminance data Y H (44) at the positions of all the real pixels and virtual pixels to the wideband processing unit 30c by generating and interpolating the high frequency luminance data Y H in this way.

なお、輝度補間展開部40は、仮想画素の位置に対応する高周波輝度データYHを作成し、この仮想画素の高周波輝度データYHを用いて実在画素の位置に対応する高周波輝度データYHを作成するようにしてもよい。 Incidentally, the luminance interpolator expansion unit 40 creates a high-frequency luminance data Y H corresponding to the position of the virtual pixel, a high-frequency luminance data Y H corresponding to the position of existing pixels by using the high-frequency luminance data Y H of the virtual pixel You may make it create.

色補間展開部42は、仮想画素および実在画素の対応していない色に対して実在画素の色配置を考慮して補間処理を行い、画面全体の三原色データを生成する機能を有する。このため、色補間展開部42には、各色ごとの補間展開部がある。これがR 補間展開部420 、G 補間展開部422 、およびB 補間展開部424 である。各補間展開部420, 422, 424 は供給される画像データ38のうち、色ごとにそれぞれ色データ38a, 38b, 38c を入力し、入力したそれぞれの色データで補間展開処理を行うことにより実在画素および仮想画素すべての位置で色データを生成する。これにより三原色RGB をすべてそろえる、RGB 同時化処理を行って三原色データ46, 48, 50を広帯域化処理部30c に出力する。これらの三原色データRGB の補間処理についても後段で詳述する。   The color interpolation development unit 42 has a function of performing interpolation processing on colors that do not correspond to virtual pixels and real pixels in consideration of the color arrangement of real pixels and generating three primary color data of the entire screen. For this reason, the color interpolation development unit 42 has an interpolation development unit for each color. This is an R interpolation development unit 420, a G interpolation development unit 422, and a B interpolation development unit 424. Each interpolation development unit 420, 422, 424 inputs color data 38a, 38b, 38c for each color from the supplied image data 38, and performs interpolation development processing on each input color data, thereby realizing the actual pixel. Color data is generated at the positions of all virtual pixels. As a result, all three primary colors RGB are prepared, and RGB simultaneous processing is performed to output the three primary color data 46, 48, and 50 to the broadband processing unit 30c. The interpolation processing of these three primary color data RGB will also be described in detail later.

広帯域化処理部30c には、ハイパスフィルタ回路52、加算部54、色差マトリクス部56、歪み防止処理部58、アパーチャ調整部60および色差ゲイン調整部62, 64が備えられている(図4を参照)。ハイパスフィルタ回路(以下、HPF という)52は、供給される高周波輝度データ44から高周波成分を抽出するフィルタである。HPF 52は、抽出した高周波成分Yhの信号52a を加算部54に出力する。また、色G に関してHPF 52と加算器540 の間に新たな切換スイッチ(図示せず)を配設して、色G には直接的に高周波成分が供給されないようにしてもよい。この場合、切換スイッチには、システム制御部18から切換制御信号が供給される。 The broadband processing unit 30c includes a high-pass filter circuit 52, an adding unit 54, a color difference matrix unit 56, a distortion prevention processing unit 58, an aperture adjustment unit 60, and color difference gain adjustment units 62 and 64 (see FIG. 4). ). A high-pass filter circuit (hereinafter referred to as HPF) 52 is a filter that extracts high-frequency components from the supplied high-frequency luminance data 44. The HPF 52 outputs the extracted signal 52 a of the high frequency component Y h to the adding unit 54. Further, a new changeover switch (not shown) may be disposed between the HPF 52 and the adder 540 for the color G so that the high frequency component is not directly supplied to the color G. In this case, a change control signal is supplied from the system control unit 18 to the changeover switch.

加算部54には、三原色に対応して3つの加算器540, 542, 544 がある。加算器540, 542, 544 の一端540a, 542a, 544aにはそれぞれ、三原色データRGB が供給されている。また、加算器540, 542, 544 の他端540b, 542b, 544bには高周波成分が供給されている。加算部54は、三原色RGB のそれぞれにHPF 52からの高周波成分Yhを加算することにより三原色データの周波数帯域を広帯域化する。ところで色G の画素データ自体には高周波成分が含まれているので広帯域化されているとみなすこともできる。 The adder 54 includes three adders 540, 542, and 544 corresponding to the three primary colors. The three primary color data RGB are supplied to one ends 540a, 542a, and 544a of the adders 540, 542, and 544, respectively. In addition, high frequency components are supplied to the other ends 540b, 542b, and 544b of the adders 540, 542, and 544. Addition unit 54, to widen the frequency band of the three primary color data by adding the high frequency components Y h from HPF 52 to each of the three primary RGB. By the way, since the pixel data of the color G itself contains a high frequency component, it can be considered that the band is widened.

色差マトリクス部56は、広帯域化した三原色データ54a, 54b, 54c を用いて輝度データY 、色差データCr, Cbを生成している。色差マトリクス部56は、ここで行うマトリクス演算にはこれまで用いてきた従来の算出式を用いている。色差マトリクス部56は、生成した輝度データY (56a)および色差データCr(56b), Cb(56c)を歪み防止処理部58に供給する。 The color difference matrix unit 56 generates luminance data Y and color difference data C r , C b using the three primary color data 54a, 54b, 54c having a wide band. The color difference matrix unit 56 uses the conventional calculation formulas used so far for the matrix calculation performed here. The color difference matrix unit 56 supplies the generated luminance data Y (56a) and color difference data C r (56b), C b (56c) to the distortion prevention processing unit 58.

歪み防止処理部58には、供給される3つの信号の帯域を損なうことなく、折返し歪みを発生させないように高域にまで帯域のあるローパスフィルタ(以下、LPF という)580, 582, 584 がある。その中でもLPF 580 は輝度データY に応じて最も高い周波数まで通す特性を有している。また、歪み防止処理部58では、水平および垂直方向の周波数帯域の重複している領域に対して一方の方向の重複する周波数帯域を制限している。これにより、周波数の重複による画質劣化を回避している。このように処理された輝度データY (58a)および色差データCr(58b), Cb(58c)がそれぞれ、アパーチャ調整部60、色差ゲイン調整部62, 64に供給される。 The distortion prevention processing unit 58 includes low-pass filters (hereinafter referred to as LPFs) 580, 582, and 584 that have a band up to a high band so as not to cause aliasing distortion without impairing the band of the three signals that are supplied. . Among them, the LPF 580 has a characteristic of passing up to the highest frequency according to the luminance data Y. Further, the distortion prevention processing unit 58 limits the overlapping frequency bands in one direction with respect to the overlapping region of the horizontal and vertical frequency bands. This avoids image quality degradation due to frequency overlap. The luminance data Y (58a) and the color difference data C r (58b) and C b (58c) processed in this way are supplied to the aperture adjustment unit 60 and the color difference gain adjustment units 62 and 64, respectively.

アパーチャ調整部60は、たとえば、LPF 処理によって高域成分の低下をなくすように処理して出力する。この結果、画像には輪郭(エッジ)強調処理が施されたと同様の効果がもたらされる。また、色差ゲイン調整部62, 64は、供給される色差データCr(58b), Cb(58c)に対してゲイン調整を行い、所定のレベルに揃えている。このようにして信号処理部30は、生成した輝度データY (66a)、色差データCr(66b), Cb(66c)を圧縮/伸長処理部32に供給する。 The aperture adjustment unit 60 processes and outputs so as to eliminate the decrease in the high frequency component by LPF processing, for example. As a result, the image has the same effect as the contour (edge) enhancement processing. Further, the color difference gain adjusting units 62 and 64 perform gain adjustment on the supplied color difference data C r (58b) and C b (58c), and align them to a predetermined level. In this way, the signal processing unit 30 supplies the generated luminance data Y (66a) and color difference data C r (66b) and C b (66c) to the compression / decompression processing unit 32.

図1に戻って圧縮/伸長処理部32は、信号処理部30から供給された1フレーム分の輝度データY と色差データCr, Cbを一時的に記憶するフレームメモリと、たとえば、直交変換を用いたJPEG(Joint Photographic Experts Group)規格での圧縮を施す回路と、この圧縮した画像を再び元のデータに伸長する回路とを有する。ここで、フレームメモリは、信号処理部30のフレームメモリと兼用してもよい。ここで、複数のフレームメモリを所有すると、動画の記録、すなわち連写等の処理において有利である。また、圧縮はJPEGに限定されるものでなく、MPEG(Moving Picture coding Experts Group )や動画像の1枚いちまいのフレームにJPEGを適用するモーションJPEG等の圧縮方法がある。 Returning to FIG. 1, the compression / decompression processing unit 32 includes a frame memory that temporarily stores luminance data Y and color difference data C r and C b supplied from the signal processing unit 30, for example, orthogonal transformation And a circuit that performs compression in accordance with the JPEG (Joint Photographic Experts Group) standard using the image and a circuit that decompresses the compressed image to the original data again. Here, the frame memory may also be used as the frame memory of the signal processing unit 30. Here, possessing a plurality of frame memories is advantageous in recording a moving image, that is, in processing such as continuous shooting. The compression is not limited to JPEG, and there is a compression method such as MPEG (Moving Picture coding Experts Group) or motion JPEG that applies JPEG to each frame of a moving image.

圧縮/伸長処理部32は、システム制御部18の制御により記録時には圧縮したデータをシステムバス16を介してストレージ部34に供給する。圧縮/伸長処理部32は、供給される輝度データY (66a)、色差データCr (66b), Cb (66c)をシステム制御部18の制御によりスルーさせてシステムバス16に供給したり、または信号処理部30からの信号をシステムバス16を介してモニタ36に供給することもできる。圧縮/伸長処理部32が伸長処理を行う場合、逆にストレージ部34から読み出したデータをシステムバス16を介して圧縮/伸長処理部32に取り込んで処理する。ここで処理されたデータはフレームメモリに記憶された後、システム制御部18の制御により圧縮/伸長処理部32は、所要の順序でフレームメモリのデータを読み出し、モニタ36に供給して表示させる。 The compression / decompression processing unit 32 supplies the compressed data to the storage unit 34 via the system bus 16 during recording under the control of the system control unit 18. The compression / decompression processing unit 32 passes the supplied luminance data Y (66a) and color difference data C r (66b), C b (66c) to the system bus 16 under the control of the system control unit 18, Alternatively, the signal from the signal processing unit 30 can be supplied to the monitor 36 via the system bus 16. When the compression / decompression processing unit 32 performs the decompression processing, the data read from the storage unit 34 is conversely taken into the compression / decompression processing unit 32 via the system bus 16 and processed. After the data processed here is stored in the frame memory, the compression / decompression processing unit 32 reads the data in the frame memory in the required order under the control of the system control unit 18 and supplies it to the monitor 36 for display.

ストレージ部34は、記録媒体に記録する記録処理部と、記録媒体から記録した画像データを読み出す再生処理部とを含む(ともに図示せず)。記録媒体には、たとえば、いわゆる、スマートメディア(登録商標)のような半導体メモリや磁気ディスク、光ディスク等がある。磁気ディスク、光ディスクを用いる場合、画像データを変調する変調部とともに、この画像データを書き込むヘッドがある。   The storage unit 34 includes a recording processing unit for recording on a recording medium and a reproduction processing unit for reading image data recorded from the recording medium (both not shown). Examples of the recording medium include a semiconductor memory such as a so-called smart media (registered trademark), a magnetic disk, and an optical disk. In the case of using a magnetic disk or an optical disk, there is a head for writing the image data together with a modulation unit that modulates the image data.

モニタ36は、システム制御部18の制御に応じてシステムバス16を介して供給される輝度データY および色差データCr, Cbまたは三原色RGB のデータを画面の大きさを考慮するとともに、タイミング調整して表示する機能を有する。 The monitor 36 considers the screen size and adjusts the timing of luminance data Y and color difference data C r , C b or three primary color RGB data supplied via the system bus 16 according to the control of the system control unit 18. The display function.

このようにディジタルカメラ10は構成して撮像した画像に対して信号処理を施し、記録している。また、記録した画像データを再生してモニタ36に表示させることも行っている。   In this way, the digital camera 10 is configured to perform signal processing on the captured image and record it. Also, the recorded image data is reproduced and displayed on the monitor 36.

次に、ディジタルカメラ10の動作について説明する。必要に応じて前述の構成で用いた図面も参照する。ディジタルカメラ10は、たとえば、図5に示す撮影におけるメインフローチャートに従って動作する。この動作手順は前述したように静止画撮影に着目して説明している。ディジタルカメラ10は図示していないが、電源投入後、カメラ10が有する複数のモードのうち、どのようなモードで動作させるか選択する。撮影モードが選択されている場合、光学レンズ系12を介して採り込む被写界の像をディジタル処理して連続的にモニタ36に表示する(ステップS10 )。特に、操作部14のレリーズシャッタボタン(図示せず)を1段階押すと、カメラ10は、撮像した被写界の画像をモニタ36に表示させるだけでなく、本撮像を前に露光条件の設定処理および露光対象との焦点距離の調節等をシステム制御部18で行い、本撮像に備えている。露光条件の設定に関わるパラメータ設定処理は、信号処理部30で行ってもよい。   Next, the operation of the digital camera 10 will be described. The drawings used in the above-described configuration are also referred to as necessary. The digital camera 10 operates, for example, according to a main flowchart in photographing shown in FIG. This operation procedure has been described focusing on still image shooting as described above. Although the digital camera 10 is not shown, after the power is turned on, a mode to be operated is selected from among a plurality of modes of the camera 10. When the photographing mode is selected, the image of the object scene taken through the optical lens system 12 is digitally processed and continuously displayed on the monitor 36 (step S10). In particular, when a release shutter button (not shown) of the operation unit 14 is pressed in one step, the camera 10 not only displays the captured image of the object scene on the monitor 36 but also sets the exposure conditions before the actual imaging. The system control unit 18 adjusts the focal length with respect to the processing and exposure target, and prepares for the main imaging. The parameter setting process related to the setting of the exposure conditions may be performed by the signal processing unit 30.

ユーザが所望のタイミングでレリーズシャッタボタンを2段階まで押し切って本撮像を行う(ステップS12 )。本撮像が行われると、システム制御部18には、操作信号14a から供給される。システム制御部18はこのタイミングであらかじめ設定した制御信号18b をシステムバス16、信号線18c を介してタイミング信号発生部20およびドライバ部22に送る。カメラ10は、タイミング信号発生部20およびドライバ部22からのタイミング信号および駆動信号に応じて動作する。図2に示すように、固体撮像素子26c は、ハニカム型G 正方格子RB完全市松パターンの色フィルタ26b を介して色フィルタセグメントRGB に対応した画素から読み出した信号電荷をアナログ信号27にしている。読み出したアナログ信号27が前処理部28に供給される。   The user presses the release shutter button up to two stages at a desired timing to perform the main imaging (step S12). When the main imaging is performed, the system control unit 18 is supplied from the operation signal 14a. The system control unit 18 sends a control signal 18b set in advance at this timing to the timing signal generation unit 20 and the driver unit 22 via the system bus 16 and the signal line 18c. The camera 10 operates according to the timing signal and the drive signal from the timing signal generation unit 20 and the driver unit 22. As shown in FIG. 2, the solid-state imaging device 26 c converts the signal charge read from the pixel corresponding to the color filter segment RGB into the analog signal 27 through the color filter 26 b of the honeycomb type G square lattice RB complete checkered pattern. The read analog signal 27 is supplied to the preprocessing unit 28.

前処理部28では、タイミング信号20b に応じて供給されたアナログ信号27に含まれる雑音を除去し、雑音除去された信号にA/D 変換処理を施してディジタル信号29に変換する(ステップS14 )。ディジタル信号29が撮像された画像データとして信号処理部30に供給される。   In the preprocessing unit 28, noise included in the analog signal 27 supplied in accordance with the timing signal 20b is removed, and the signal from which noise has been removed is subjected to A / D conversion processing to be converted into a digital signal 29 (step S14). . The digital signal 29 is supplied to the signal processing unit 30 as captured image data.

信号処理部30では供給される画像データに対して静止画補間信号処理(サブルーチンSUB1)および静止画用広帯域化処理(サブルーチンSUB2)を順に行う。供給される画像データ29は、たとえば図6に示す画素配置関係の画素データにあるとする。八角形の実線は実在画素、八角形の破線は仮想画素を表す。また、八角形の内部に記した記号R, G, B は各画素が生成する色を示す。記号R, G, B に付される添字は画素の位置を行列表示で示している。   The signal processing unit 30 sequentially performs still image interpolation signal processing (subroutine SUB1) and still image widening processing (subroutine SUB2) on the supplied image data. Assume that the supplied image data 29 is, for example, pixel data related to pixel arrangement shown in FIG. The octagonal solid line represents a real pixel, and the octagonal broken line represents a virtual pixel. Symbols R, G, and B written inside the octagon indicate colors generated by each pixel. Subscripts attached to symbols R, G, and B indicate pixel positions in a matrix display.

画像データ29には静止画補間信号処理を行う前にデータ補正部30a で各画素に対応する画素データにガンマ補正、ホワイトバランス補正等の各種補正が施される。データ補正部30a にはフレームメモリ(図示せず)を備えてもよい。この場合画像データは供給された際に一時的に記憶し、その後各画素ごとに読み出して上述した補正が施される。この補正された画像データ38は、フレームメモリにふたたび格納してもよいし、補間処理部30b に供給してもよい。   The image data 29 is subjected to various corrections such as gamma correction and white balance correction on the pixel data corresponding to each pixel by the data correction unit 30a before the still image interpolation signal processing. The data correction unit 30a may include a frame memory (not shown). In this case, the image data is temporarily stored when supplied, and then read out for each pixel and subjected to the above-described correction. The corrected image data 38 may be stored again in the frame memory or may be supplied to the interpolation processing unit 30b.

補間処理部30b では供給される画像データ38に基づいて静止画用の補間信号処理が施される。後段で詳述するが、この補間信号処理で、ハニカム型G 正方格子RB完全市松パターンにおいて効果的な解像度を高める処理が施される。生成した高周波輝度データYH (44) およびプレーンな色データ46, 48, 50がそれぞれ広帯域化処理部30c に出力される。 The interpolation processing unit 30b performs interpolation signal processing for still images based on the supplied image data 38. As will be described in detail later, with this interpolation signal processing, effective resolution enhancement processing is performed in the honeycomb-type G square lattice RB complete checkered pattern. The generated high-frequency luminance data Y H (44) and plain color data 46, 48, 50 are output to the broadband processing unit 30c.

広帯域化処理部30c では、それぞれ供給された高周波輝度データYH (44) およびプレーンな色データ46, 48, 50に対して広帯域化処理を施して広帯域な輝度データY (66a) 、および色差データ(B-Y) (66b), (R-Y)(66c) を生成する。 The broadband processing unit 30c performs broadband processing on the supplied high-frequency luminance data Y H (44) and plain color data 46, 48, and 50, respectively, to generate broadband luminance data Y (66a) and color difference data. (BY) (66b), (RY) (66c) are generated.

次に信号処理により得られた画像データ66a, 66b, 66c に対して圧縮処理を施す(ステップS16 )。圧縮処理もあらわに図示していないが、動画モードでは、1フレームごとに圧縮処理を施すモーションJPEG(Joint Photographic coding Experts Group )あるいはMPEG(Moving Picture coding Experts Group )などで処理される。また、静止画モードではJPEG等が圧縮信号処理として適用される。そして、この圧縮処理が施された画像データは、ストレージ部34の記録再生装置に装着された記録媒体に記録保存される(ステップS18 )。   Next, compression processing is performed on the image data 66a, 66b, 66c obtained by the signal processing (step S16). Although the compression processing is not shown in the figure, in the moving image mode, the processing is performed by motion JPEG (Joint Photographic coding Experts Group) or MPEG (Moving Picture coding Experts Group) which performs compression processing for each frame. In the still image mode, JPEG or the like is applied as compressed signal processing. The compressed image data is recorded and stored in a recording medium attached to the recording / reproducing apparatus of the storage unit 34 (step S18).

最後に、ディジタルカメラ10の動作を終了させるかどうかを判定する(ステップS20 )。まだ動作を継続するとき(NO)、ステップS10 に戻って一連の処理を継続する。また、動作を終了するとき(YES )、ディジタルカメラ10の電源をオフにする。このように動作させている。   Finally, it is determined whether or not to end the operation of the digital camera 10 (step S20). When the operation is still continued (NO), the process returns to step S10 to continue the series of processes. When the operation is finished (YES), the power of the digital camera 10 is turned off. It is made to operate in this way.

次に補間処理について概略的に説明する(サブルーチンSUB1:図7を参照)。補間処理はサブルーチンSUB3, SUB4, SUB5が含まれ、図3の高周波輝度データ作成部400 、輝度データ補間処理部402 、および色補間展開部42での処理にそれぞれ対応している。本実施例で高周波輝度データ作成処理は高周波輝度データ作成部400 で市松状に実在画素の位置に対して高周波輝度データYHを作成する。この処理後、作成した高周波輝度データYHを用いて輝度データの補間処理を行う。ここでの補間は、仮想画素に対して行う処理である。また、高周波輝度データ作成処理が仮想画素に対して行われた場合、輝度の補間処理は実在画素に対して行うことになる。 Next, the interpolation process will be schematically described (subroutine SUB1: see FIG. 7). The interpolation processing includes subroutines SUB3, SUB4, and SUB5, which correspond to the processing in the high-frequency luminance data creation unit 400, luminance data interpolation processing unit 402, and color interpolation development unit 42 in FIG. In the present embodiment, the high-frequency luminance data creation processing creates the high-frequency luminance data Y H for the positions of the existing pixels in a checkered pattern by the high-frequency luminance data creation unit 400. After this processing, the interpolation of the luminance data using the high-frequency luminance data Y H created. The interpolation here is processing performed on the virtual pixel. Further, when the high-frequency luminance data creation process is performed on the virtual pixel, the luminance interpolation process is performed on the actual pixel.

この高周波輝度データYH (44) の作成を行うとともに、色補間処理が行われる(サブルーチンSUB5: RGB 同時化処理)。この処理により、実在画素だけでなく、仮想画素も含めた画素全面において原色R, G, B の画素データ46, 48, 50を生成している。 The high-frequency luminance data Y H (44) is generated and color interpolation processing is performed (subroutine SUB5: RGB synchronization processing). With this process, pixel data 46, 48, and 50 of primary colors R, G, and B are generated not only on the actual pixels but also on the entire pixel surface including the virtual pixels.

さらに高周波輝度データ作成処理(サブルーチンSUB3)の手順について説明する(図8〜図11を参照)。まず、本実施例において、図8に示すように各画素から得られた画素データを用いて画素データ間の相関性の有無を考慮しながら、高周波輝度データYHを生成する、適応型処理を行うかどうか判断する(サブステップSS30)。適応型処理の実行の可否はあらかじめ操作部14で設定しておくとよい。たとえば、この設定のデフォルトは適応型処理を行うように設定されている。適応型処理を行う場合(YES )、サブルーチンSUB6に進む。適応型処理については後段でさらに詳述する。適応型処理を行わない場合(NO)、正方格子状に配されている周囲4画素の画素データを平均して高周波輝度データYHを生成する(サブステップSS32)。算出式は後段で示す。 Further, the procedure of high-frequency luminance data creation processing (subroutine SUB3) will be described (see FIGS. 8 to 11). First, in this embodiment, adaptive processing for generating high-frequency luminance data Y H while considering the presence or absence of correlation between pixel data using pixel data obtained from each pixel as shown in FIG. It is determined whether or not to perform (sub step SS30). Whether or not to execute the adaptive processing may be set in advance by the operation unit 14. For example, the default of this setting is set to perform adaptive processing. If adaptive processing is to be performed (YES), the process proceeds to subroutine SUB6. The adaptive processing will be described in further detail later. If you do not adaptive processing (NO), and the average pixel data of the four surrounding pixels are arranged in a square lattice and generates a high-frequency luminance data Y H by (substep SS32). The calculation formula is shown later.

たとえば、ある画素における高周波輝度データYHの生成が終了したとき、この時点で1フレーム分の実在画素に対する補間処理が終了したかどうかの判断を行う(サブステップSS34)。1フレーム分の補間処理がまだ完了していない場合(NO)、サブルーチンSUB3の先頭に戻る。また、この補間処理が完了した場合(YES )、得られた1フレームの画像データ内の各画素データに対する比較補正を行う(サブステップSS36)。比較補正後、リターンに移行してサブルーチンSUB3を終了する。この比較補正については後段でふたたび説明する。 For example, when the generation of the high-frequency luminance data Y H at a certain pixel is completed, it is determined whether or not the interpolation processing for the existing pixels for one frame has been completed at this time (substep SS34). If the interpolation process for one frame has not been completed yet (NO), the process returns to the top of the subroutine SUB3. When this interpolation processing is completed (YES), comparison correction is performed on each pixel data in the obtained image data of one frame (sub step SS36). After the comparison correction, the process proceeds to return and the subroutine SUB3 is terminated. This comparison correction will be described again later.

次に適応型処理につい説明する。適応型処理はユーザの設定に応じて斜め方向、水平方向、および/または垂直方向の相関判定処理に基づいて高周波輝度データYHを算出する。まず、図9に示すように、斜め相関判定処理を行うかどうかの判断を行う(サブステップSS60)この場合も処理の可否をカメラ10に設定されているフラグのオン/オフを用いて判断するとよい。斜め相関処理を行う場合(YES )、実際に相関判定処理に応じた高周波輝度データYHの算出を行う(サブルーチンSUB7)。斜め相関判定処理を行わない場合(NO)、垂直/水平相関に基づく高周波輝度データYHの算出処理に進む(サブルーチンSUB8)。 Next, adaptive processing will be described. Oblique direction adaptive processing according to the user's setting, and calculates the high-frequency luminance data Y H based on the correlation determination processing in the horizontal direction, and / or vertical direction. First, as shown in FIG. 9, it is determined whether or not the diagonal correlation determination process is to be performed (substep SS60). In this case as well, whether or not the process is possible is determined using the on / off of the flag set in the camera 10. Good. When oblique correlation processing is performed (YES), high-frequency luminance data Y H is actually calculated according to the correlation determination processing (subroutine SUB7). When the diagonal correlation determination process is not performed (NO), the process proceeds to the calculation process of the high-frequency luminance data Y H based on the vertical / horizontal correlation (subroutine SUB8).

斜め相関判定処理後、対象の画素から得られた画素データに対して他の相関判定処理をしないかどうかを判断する。他の相関判定処理を行う場合(NO)、サブルーチンSUB8に進む。また、他の相関判定処理を行わない場合(YES )、リターンに移行してサブルーチンSUB6を終了する。   After the diagonal correlation determination process, it is determined whether or not to perform another correlation determination process on the pixel data obtained from the target pixel. When other correlation determination processing is performed (NO), the process proceeds to subroutine SUB8. If no other correlation determination process is performed (YES), the process proceeds to return and the subroutine SUB6 is terminated.

次に斜め相関判定処理について説明する(図10を参照)。斜め相関判定処理における比較データの算出を行う(サブステップSS70)。 比較データは、たとえば適応処理を施す対象の画素データを中心にしてその周囲の画素データがどの方向に相関しているかの判別に用いる。たとえば、その対象の画素データが図6に示す色B46 の場合、比較データAGは、周囲の画素データG35, G55, G37, G57を用いて、
AG=|G35 +G57 −(G37 +G55) | ・・・(1)
から得られる。画素データが色R の場合も周囲の画素データG から算出する。この算出により、左右のいずれか一方に傾きを有する大きい方の値が比較データAGとして得られることになる。
Next, the diagonal correlation determination process will be described (see FIG. 10). Comparison data is calculated in the diagonal correlation determination process (substep SS70). The comparison data is used, for example, to determine in which direction the pixel data around the pixel data to be subjected to adaptive processing is correlated. For example, when the target pixel data is the color B 46 shown in FIG. 6, the comparison data AG uses surrounding pixel data G 35 , G 55 , G 37 , G 57 ,
AG = | G 35 + G 57 - (G 37 + G 55) | ··· (1)
Obtained from. Even when the pixel data is color R, it is calculated from the surrounding pixel data G. By this calculation, a larger value having a slope on either the left or right side is obtained as the comparison data AG.

この演算の後、対象の画素データを挟んで斜めに位置する画素データに相関(すなわち、斜め相関)があるかどうか判定を行う(サブステップSS70)。この判定には、判定基準値としてJ1が設定されている。比較データAGが判定基準値J1以上に大きいとき(YES )、斜め相関があると判定して高周波輝度データYHの生成を行う(サブステップSS74)。高周波輝度データYHの生成は、比較データAGの算出に用いた4つの画素データG を平均して行う。 また、比較データAGが判定基準値J1よりも小さいとき(NO)、他の相関判定処理用フラグをオンにする(サブステップSS76)。 After this calculation, it is determined whether or not there is a correlation (that is, a diagonal correlation) in pixel data located diagonally across the target pixel data (sub-step SS70). In this determination, J1 is set as a determination reference value. When comparing data AG is greater than the determination reference value J1 (YES), and generates the high-frequency luminance data Y H is determined that there is a diagonal correlation (substep SS74). Generating high-frequency luminance data Y H is performed by averaging the four pixels data G used for calculation of the comparison data AG. When the comparison data AG is smaller than the determination reference value J1 (NO), other correlation determination processing flags are turned on (substep SS76).

ところで、この場合でも、偽色を発生させてしまうおそれがある。そこで、このおそれのある画素の境界近傍に位置する画素データR における画質は高周波輝度データYHを上述した演算により算出すると、画像全体として見た際に色境界での偽色の発生を良好に抑圧することができる。具体的な説明を省略するが画素データB =B24 に対しても同様に比較データを算出し斜め相関の有無に基づいた適応的な高周波輝度データYHを作成することができる。この処理の後、リターンに移行してサブルーチンSUB7を終了する。 By the way, even in this case, there is a possibility of generating false colors. Therefore, if the image quality in the pixel data R located near the boundary of the pixel having this fear is calculated by the above-described calculation of the high-frequency luminance data Y H , the occurrence of false color at the color boundary can be satisfactorily viewed as the entire image. Can be suppressed. Although not specific description can create an adaptive high-frequency luminance data Y H based on the presence or absence of the calculated slant correlation similarly compare data against the pixel data B = B 24. After this processing, the process proceeds to return and the subroutine SUB7 is terminated.

次に垂直/水平相関判定処理について説明する(図11を参照)。垂直/水平相関判定処理も図6に示した配置パターンを利用するとともに、処理の対象画素を色B46 にして説明する。垂直/水平相関判定には対象画素B46 を中心としこの周辺に位置する8つの実在画素(R26, G35, G37, R44, R48, G55, G57, R66)を含む領域68が用いられている。 Next, the vertical / horizontal correlation determination process will be described (see FIG. 11). With utilizing arrangement pattern also vertical / horizontal correlation determination process shown in FIG. 6, illustrating a target pixel to be processed in the color B 46. The vertical / horizontal correlation determination includes eight actual pixels (R 26 , G 35 , G 37 , R 44 , R 48 , G 55 , G 57 , and R 66 ) centered on the target pixel B 46 and the periphery thereof. Region 68 is used.

本実施例では、垂直/水平相関判定の精度をさらに向上させるため領域68を囲む領域70も考慮する。実際に相関判定に用いる画素は領域70のうち、対象画素B46 と同色、かつ領域70の四隅に位置する4つの実在画素(B06, B42, B410, B86 )である。すなわち、対象画素B46 に対して水平・垂直な十字方向に位置する同色画素のデータを用いる。 In this embodiment, a region 70 surrounding the region 68 is also considered in order to further improve the accuracy of the vertical / horizontal correlation determination. The pixels actually used for the correlation determination are the four real pixels (B 06 , B 42 , B 410 , B 86 ) in the region 70 that have the same color as the target pixel B 46 and are positioned at the four corners of the region 70. That is, the data of the same color pixel located in the cross direction that is horizontal and vertical with respect to the target pixel B 46 is used.

本実施例において比較データは、領域68、領域70に対して算出する(サブステップSS800 )。領域68における比較データがARBH, ARBV, ACBH, ACBV, AGBHおよび/またはAGBVで、領域70における比較データがACBBH, ACBBVである。比較データを表す第1の文字“A ”は算術演算、第2の文字“R ”や“G ”は算術演算に用いる画素の色、または“C ”は対象画素との比較演算、第3の文字“B ”は算術演算に用いる画素の色、または対象画素の色、第4の文字は対象画素の色、そして第3または第4の文字に対する添字H, Vは、それぞれ水平、垂直を表している。 In this embodiment, the comparison data is calculated for the area 68 and area 70 (substep SS800). The comparison data in the area 68 is ARB H , ARB V , ACB H , ACB V , AGB H and / or AGB V , and the comparison data in the area 70 is ACBB H , ACBB V. The first character “A” representing the comparison data is an arithmetic operation, the second character “R” or “G” is the color of the pixel used for the arithmetic operation, or “C” is a comparison operation with the target pixel, the third The letter “B” is the color of the pixel used for the arithmetic operation, or the color of the target pixel, the fourth letter is the color of the target pixel, and the subscripts H and V for the third or fourth letter represent horizontal and vertical, respectively. ing.

たとえば、対象画素B46 に対する比較データは次のような演算
ARBH=|R44 −R48 | ・・・(2a)
ARBV=|R26 −R66 | ・・・(2b)
ACBH=|R44 −B46 |+|R48 −B46 | ・・・(2c)
ACBV=|R26 −B46 |+|R66 −B46 | ・・・(2d)
AGBH=|G35 −G37 |+|G55 −G57 | ・・・(2e)
AGBV=|G35 −G55 |+|G37 −G57 | ・・・(2f)
ACBBH =|B42 −B46 |+|B410−B46 | ・・・(2g)
ACBBV =|B06 −B46 |+|B86 −B46 | ・・・(2h)
を行って得られる。また、比較データは各垂直/水平方向の相関判定前にそれぞれ行うようにしてもよい。垂直/水平方向の相関判定には、あらかじめ垂直・水平の一組に一つずつ判定基準値J2, J3, J4が設定されている。これらの値J2, J3, J4は、経験的に設定される。
For example, the comparison data for the target pixel B 46 is calculated as follows:
ARB H = | R 44 −R 48 | (2a)
ARB V = | R 26 −R 66 | (2b)
ACB H = | R 44 −B 46 | + | R 48 −B 46 | (2c)
ACB V = | R 26 −B 46 | + | R 66 −B 46 | (2d)
AGB H = | G 35- G 37 | + | G 55- G 57 | (2e)
AGB V = | G 35 -G 55 | + | G 37 -G 57 | ··· (2f)
ACBB H = | B 42 −B 46 | + | B 410 −B 46 | (2g)
ACBB V = | B 06- B 46 | + | B 86- B 46 | (2h)
To obtain. Further, the comparison data may be performed before the correlation determination in each vertical / horizontal direction. For the correlation determination in the vertical / horizontal direction, determination reference values J2, J3, and J4 are set in advance for each pair of vertical and horizontal. These values J2, J3, and J4 are set empirically.

次に対象の画素データB =B46 を挟んで垂直に位置する画素データに相関(すなわち、垂直相関)があるかどうか判定を行う(サブステップSS802 )。この判定は、垂直方向の比較データARBVと水平方向の比較データARBHの値を用いてさらに相関値(ARBH−ARBV)が算出された際に、新たに設けられた所定の判定基準値J2よりも小さいとき(NO)、垂直相関がないものとみなし水平相関判定に進む。また、相関値(ARBH−ARBV)が判定基準値J2以上のとき(YES )、垂直相関があるとみなして高周波輝度データYHの生成に進む。相関のあるとは画素データ同士の値が近いことを意味するからである。 Then correlation pixel data positioned vertically across the pixel data B = B 46 subjects (i.e., the vertical correlation) a determination whether there is a (substep SS802). This determination is performed when a correlation value (ARB H −ARB V ) is further calculated using the values of the comparison data ARB V in the vertical direction and the comparison data ARB H in the horizontal direction. When the value is smaller than the value J2 (NO), it is considered that there is no vertical correlation and the process proceeds to the horizontal correlation determination. When the correlation value (ARB H −ARB V ) is equal to or greater than the determination reference value J2 (YES), it is considered that there is a vertical correlation, and the process proceeds to generation of the high-frequency luminance data Y H. This is because the correlation means that the values of the pixel data are close to each other.

垂直相関があると判定された際に、対象の画素B46 および画素R26, R66を用いて高周波輝度データYHを算出する(サブステップSS804 )。高周波輝度データYHは、基本的に画素データG と色G の補色、すなわちマゼンタMgのいずれか一方で表すことができる。マゼンタMgは、画素データR と画素データB の加算平均(0.5*R +0.5*B )で算出できることが知られている。この場合、高周波輝度データYH46は、
YH46=B46/2 +(R26 +R66)/4 ・・・(3)
により得られる。高周波輝度データYHには垂直相関を示すフラグv が付されている。この後、この画素B46 における高周波輝度データYHの算出を終了したものとみなしてリターンに進む。
When it is determined that there is a vertical correlation, the high-frequency luminance data Y H is calculated using the target pixel B 46 and the pixels R 26 and R 66 (substep SS804). Frequency luminance data Y H is basically the pixel data G and the color G complementary, i.e. can be represented by either of the magenta Mg. It is known that magenta Mg can be calculated by an average of pixel data R and pixel data B (0.5 * R + 0.5 * B). In this case, the high frequency luminance data Y H46 is
Y H46 = B 46/2 + (R 26 + R 66) / 4 ··· (3)
Is obtained. Flag v is attached to a vertical correlation frequency luminance data Y H. Thereafter, it is considered that the calculation of the high-frequency luminance data Y H in the pixel B 46 is finished, and the process proceeds to return.

次に対象の画素データB =B46 を挟んで水平に位置する画素データに相関(すなわち、水平相関)があるかどうか判定を行う(サブステップSS806 )。相関値(ARBV−ARBH)が算出された際に、判定基準値J2よりも小さいとき(NO)、水平相関がないものとみなし次の垂直相関判定に進む。また、相関値(ARBV−ARBH)が判定基準値J2以上のとき(YES )、水平相関があるとみなして高周波輝度データYHの生成に進む。 Next, it is determined whether or not there is a correlation (that is, horizontal correlation) in the pixel data positioned horizontally across the target pixel data B = B 46 (substep SS806). When the correlation value (ARB V −ARB H ) is calculated and is smaller than the determination reference value J2 (NO), it is considered that there is no horizontal correlation, and the process proceeds to the next vertical correlation determination. When the correlation value (ARB V −ARB H ) is equal to or greater than the determination reference value J2 (YES), it is considered that there is a horizontal correlation, and the process proceeds to generation of the high-frequency luminance data Y H.

水平相関があると判定された際に、対象の画素B46 および画素R44, R48を用いて高周波輝度データYHを算出する(サブステップSS808 )。この場合、高周波輝度データYH46は、
YH46=B46/2 +(R44 +R48)/4 ・・・(4)
により得られる。高周波輝度データYHには水平相関を示すフラグh が付されている。この後、この画素B46 における高周波輝度データYHの算出を終了したものとみなしてリターンに進む。
When it is determined that there is a horizontal correlation, the high-frequency luminance data Y H is calculated using the target pixel B 46 and the pixels R 44 and R 48 (substep SS808). In this case, the high frequency luminance data Y H46 is
Y H46 = B 46/2 + (R 44 + R 48) / 4 ··· (4)
Is obtained. It is denoted by the flag h in the horizontal correlation frequency luminance data Y H. Thereafter, it is considered that the calculation of the high-frequency luminance data Y H in the pixel B 46 is finished, and the process proceeds to return.

次に高周波輝度データYHを算出する対象画素B46 の周囲に位置する実在画素を用いて垂直相関判定を行う(サブステップSS810 )。対象画素B46 と周囲の画素との距離を近づけて垂直相関判定する場合、比較データACBH, ACBVおよび所定の判定基準値J3を用いて行う。すなわち、相関値(ACBH−ACBV)が判定基準値J3より小さいとき(NO)、垂直相関がないと判定して、次の水平相関判定に進む。また、相関値(ACBH−ACBV)が判定基準値J3以上のとき(YES )、垂直相関有りと判定して、高周波輝度データYHの算出に進む。 Next, vertical correlation determination is performed using real pixels located around the target pixel B 46 for calculating the high-frequency luminance data Y H (sub-step SS810). When the vertical correlation determination is performed by reducing the distance between the target pixel B 46 and the surrounding pixels, the comparison data ACB H and ACB V and a predetermined determination reference value J3 are used. That is, when the correlation value (ACB H −ACB V ) is smaller than the determination reference value J3 (NO), it is determined that there is no vertical correlation, and the process proceeds to the next horizontal correlation determination. When the correlation value (ACB H −ACB V ) is equal to or greater than the determination reference value J3 (YES), it is determined that there is a vertical correlation, and the process proceeds to calculation of the high-frequency luminance data Y H.

なお、領域68内で対象画素B46 と最も距離の近い画素、すなわち色G の画素を用いて垂直相関判定してもよい。この場合、比較データAGBH, AGBVを用いる。相関値(AGBH−AGBV)と判定基準値J3とを比較判定するとよい。比較判定の大小基準は前述と同じである。 Note that the vertical correlation may be determined using a pixel closest to the target pixel B 46 in the region 68, that is, a pixel of color G. In this case, comparison data AGB H and AGB V are used. The correlation value (AGB H −AGB V ) and the determination reference value J3 may be compared and determined. The size criteria for comparison determination are the same as described above.

垂直相関があると判定された際に、対象の画素B46 および画素R26, R66を用いて高周波輝度データYHを算出する(サブステップSS812 )。この場合、高周波輝度データYH46は、式(3) により得られる。高周波輝度データYHには垂直相関を示すフラグv が付されている。この後、この画素B46 における高周波輝度データYHの算出を終了したものとみなしてリターンに進む。 When it is determined that there is a vertical correlation, the high-frequency luminance data Y H is calculated using the target pixel B 46 and the pixels R 26 and R 66 (substep SS812). In this case, the high frequency luminance data Y H46 is obtained by the equation (3). Flag v is attached to a vertical correlation frequency luminance data Y H. Thereafter, it is considered that the calculation of the high-frequency luminance data Y H in the pixel B 46 is finished, and the process proceeds to return.

次に高周波輝度データYHを算出する対象画素B46 の周囲に位置する実在画素を用いて水平相関判定を行う(サブステップSS814 )。対象画素B46 と周囲の画素との距離を近づけて水平相関判定する場合、この場合も比較データACBH, ACBVおよび所定の判定基準値J3を用いて行う。相関値は(ACBV−ACBH)である。相関値(ACBV−ACBH)が判定基準値J3より小さいとき(NO)、水平相関がないと判定して、次の垂直相関判定に進む。また、相関値(ACBV−ACBH)が判定基準値J3以上のとき(YES )、水平相関有りと判定して、高周波輝度データYHの算出に進む。 Next, horizontal correlation determination is performed using the existing pixels located around the target pixel B 46 for calculating the high-frequency luminance data Y H (sub-step SS814). When the horizontal correlation determination is performed by reducing the distance between the target pixel B 46 and the surrounding pixels, the comparison data ACB H and ACB V and a predetermined determination reference value J3 are used in this case as well. The correlation value is (ACB V −ACB H ). When the correlation value (ACB V −ACB H ) is smaller than the determination reference value J3 (NO), it is determined that there is no horizontal correlation, and the process proceeds to the next vertical correlation determination. When the correlation value (ACB V −ACB H ) is equal to or greater than the determination reference value J3 (YES), it is determined that there is horizontal correlation, and the process proceeds to the calculation of the high-frequency luminance data Y H.

ここでも、前述したように領域68内で対象画素B46 と最も距離の近い画素、すなわち色G の画素を用いてより狭い領域で水平相関判定してもよい。この場合、比較データAGBH, AGBVを用いる。相関値(AGBV−AGBH)と判定基準値J3とを比較判定するとよい。比較判定の大小基準は前述の通りである。 Here, as described above, the horizontal correlation may be determined in a narrower region using the pixel closest to the target pixel B 46 in the region 68, that is, the pixel of the color G. In this case, comparison data AGB H and AGB V are used. The correlation value (AGB V −AGB H ) and the determination reference value J3 may be compared and determined. The size criteria for the comparison determination are as described above.

水平相関があると判定された際に、対象の画素B46 および画素R44, R48を用いて高周波輝度データYHを算出する(サブステップSS816 )。この場合、高周波輝度データYH46は、式(4) により得られる。高周波輝度データYHには水平相関を示すフラグh が付されている。この後、この画素B46 における高周波輝度データYHの算出を終了したものとみなしてリターンに進む。 When it is determined that there is a horizontal correlation, the high-frequency luminance data Y H is calculated using the target pixel B 46 and the pixels R 44 and R 48 (substep SS816). In this case, the high frequency luminance data Y H46 is obtained by the equation (4). It is denoted by the flag h in the horizontal correlation frequency luminance data Y H. Thereafter, it is considered that the calculation of the high-frequency luminance data Y H in the pixel B 46 is finished, and the process proceeds to return.

垂直/水平相関の検出を高めるため、前述したように、垂直・水平相関の検出判定を2段階ずつ行っている。この2段階の相関判定は、相関検出の範囲を対象画素に対して狭める方向で行われている。しかしながら、たとえば特定の幅で長手線状の被写体を撮像したとき、適切な高周波輝度データYHが得られないことから画質を損なう場合があった。このような特定の幅での画質低下を防止するように相関検出の範囲を領域68よりも広い領域70で行う。 In order to enhance detection of vertical / horizontal correlation, detection determination of vertical / horizontal correlation is performed in two stages as described above. This two-stage correlation determination is performed in a direction to narrow the correlation detection range with respect to the target pixel. However, for example, when capturing a longitudinal line-shaped object with a specific width, suitable high frequency luminance data Y H is in some cases compromise the quality of can not be obtained. The range of correlation detection is performed in a region 70 wider than the region 68 so as to prevent such deterioration in image quality at a specific width.

次に領域70において高周波輝度データYHを算出する対象画素B46 の周囲に位置する実在画素を用いて垂直相関判定を行う(サブステップSS818 )。この場合、対象画素B46 と4つの周囲の画素B06, B42, B410, B86 を用いる。用いる周囲の画素は対象の画素と同色である。比較データACBBH, ACBBV から算出した相関値(ACBBH −ACBBV )が判定基準値J4より小さいとき(NO)、次の水平相関判定に進む。また、相関値(ACBBH −ACBBV )が判定基準値J4以上のとき(YES )、垂直相関があると判定して、高周波輝度データYHの算出に進む。 Next, vertical correlation determination is performed using real pixels located around the target pixel B 46 for calculating the high-frequency luminance data Y H in the region 70 (substep SS818). In this case, the target pixel B 46 and the four surrounding pixels B 06 , B 42 , B 410 , B 86 are used. The surrounding pixels to be used have the same color as the target pixel. When comparing data ACBB H, correlation value calculated from ACBB V (ACBB H -ACBB V) is smaller than the determination reference value J4 (NO), the process proceeds to the next horizontal correlation determination. When the correlation value (ACBB H −ACBB V ) is equal to or greater than the determination reference value J4 (YES), it is determined that there is a vertical correlation, and the process proceeds to calculation of the high-frequency luminance data Y H.

垂直相関があると判定された際に、対象の画素B46 および画素R26, R66を用いて高周波輝度データYHを算出する(サブステップSS820 )。この場合、高周波輝度データYH46は、式(3) により得られる。高周波輝度データYHには垂直相関を示すフラグv が付されている。この後、この画素B46 における高周波輝度データYHの算出を終了したものとみなしてリターンに進む。 When it is determined that there is a vertical correlation, the high-frequency luminance data Y H is calculated using the target pixel B 46 and the pixels R 26 and R 66 (substep SS820). In this case, the high frequency luminance data Y H46 is obtained by the equation (3). Flag v is attached to a vertical correlation frequency luminance data Y H. Thereafter, it is considered that the calculation of the high-frequency luminance data Y H in the pixel B 46 is finished, and the process proceeds to return.

次に前述と同様に領域70において高周波輝度データYHを算出する対象画素B46 の周囲に位置する実在画素を用いて垂直相関判定を行う(サブステップSS822 )。この場合も、対象画素B46 と同色の4つの周囲の画素B06, B42, B410, B86 を用いる。比較データACBBH, ACBBVから相関値(ACBBV −ACBBH )を算出する。相関値(ACBBV −ACBBH )が判定基準値J4より小さいとき(NO)、相関なしと判定して、周囲の4画素平均処理に進む。また、相関値(ACBBV −ACBBH )が判定基準値J4以上のとき(YES )、水平相関があると判定して、高周波輝度データYHの算出に進む。 Next, in the same manner as described above, vertical correlation determination is performed using real pixels located around the target pixel B 46 for calculating the high-frequency luminance data Y H in the region 70 (sub-step SS822). Also in this case, four surrounding pixels B 06 , B 42 , B 410 , B 86 having the same color as the target pixel B 46 are used. Comparative data ACBB H, calculates a correlation value (ACBB V -ACBB H) from ACBB V. When the correlation value (ACBB V −ACBB H ) is smaller than the determination reference value J4 (NO), it is determined that there is no correlation, and the process proceeds to the surrounding four-pixel averaging process. When the correlation value (ACBB V −ACBB H ) is equal to or greater than the determination reference value J4 (YES), it is determined that there is a horizontal correlation, and the process proceeds to calculation of the high-frequency luminance data Y H.

水平相関があると判定された際に、対象の画素B46 および画素R26, R66を用いて高周波輝度データYHを算出する(サブステップSS824 )。この場合、高周波輝度データYH46は、式(4) により得られる。高周波輝度データYHには水平相関を示すフラグh が付されている。この後、この画素B46 における高周波輝度データYHの算出を終了したものとみなしてリターンに進む。 When it is determined that there is a horizontal correlation, the high-frequency luminance data Y H is calculated using the target pixel B 46 and the pixels R 26 and R 66 (substep SS824). In this case, the high frequency luminance data Y H46 is obtained by the equation (4). It is denoted by the flag h in the horizontal correlation frequency luminance data Y H. Thereafter, it is considered that the calculation of the high-frequency luminance data Y H in the pixel B 46 is finished, and the process proceeds to return.

相関なしと判定された際に周囲の4画素平均処理を行う(サブステップSS826 )。対象画素B46 の高周波輝度データYHは、領域68内に実在画素すべてから得られる画素データを用いて算出する。高周波輝度データYHは、
YH46=B46/2 +(R26+R44 +R410+R66)/8 ・・・(5)
により得られる。高周波輝度データYHには、相関なしで算出されたことを示すフラグ+ が付されている。フラグ+ は対象画素の色と対象画素の色に対して異なる色を加算してマゼンタMgを生成することを意味している。すなわち、フラグ+ は周囲の画素すべての加算である。この後、この画素B46 における高周波輝度データYHの算出を終了したものとみなしてリターンに進む。リターンを介してサブルーチンSUB8を終了する。この結果、撮像により得られた色G の実在画素とともに、新たに色R, Bの位置に色Mgの画素データが算出される(図12を参照)。これら色G, Mg の画素データは高周波輝度データYHとして扱えることから、図13に示す実在画素の位置すべてに対応して高周波輝度データYHが生成される。
When it is determined that there is no correlation, the surrounding four-pixel averaging process is performed (sub-step SS826). The high-frequency luminance data Y H of the target pixel B 46 is calculated using pixel data obtained from all the existing pixels in the region 68. The high frequency luminance data Y H is
Y H46 = B 46/2 + (R 26 + R 44 + R 410 + R 66) / 8 ··· (5)
Is obtained. The high-frequency luminance data Y H, flag indicating that it has been calculated without correlation + is attached. The flag + means that magenta Mg is generated by adding different colors to the target pixel color and the target pixel color. That is, the flag + is the addition of all surrounding pixels. Thereafter, it is considered that the calculation of the high-frequency luminance data Y H in the pixel B 46 is finished, and the process proceeds to return. The subroutine SUB8 is terminated via return. As a result, pixel data of the color Mg is newly calculated at the positions of the colors R and B together with the actual pixels of the color G obtained by imaging (see FIG. 12). These color G, Mg pixel data from the handle as the high frequency luminance data Y H, the high-frequency luminance data Y H is generated corresponding to all positions of existing pixels shown in FIG. 13.

ところで、前述したように被写体に特定幅で長手線状に輝度が得られる場合がある。このとき、長手方向に輝度レベル差が発生する。具体例として、図14に示すように被写体の中の、白色W の間に黄色yeが挟まれる部分で輝度レベル差が生じる。ただし、色G は省略している。白色W の領域は、たとえば三原色RGB の画素データが同じ程度のレベルで得られる。また、黄色yeの領域72(b+, R+, b+, R+, b+)は、たとえば色R と色G の画素データが同程度のレベルにし、色B を小さいレベルb の画素データで黄色を表している。黄色領域72における高周波輝度データYHの生成はフラグ+ が示すように周囲の4画素の加算平均により得られる。画素R+, b+に対する高周波輝度データYHを、それぞれYH(R+), YH(b+)とすると、式(6a), (6b)
YH(R+)=R/2 +(B+b+B+b)/8 =R/2 +(B+b)/4 ・・・(6a)
YH(b+)=b/2 +(R+R+R+R)/8 =R/2 +R/2 ・・・(6b)
により得られる。長手方向の輝度データのレベル差とは、高周波輝度データYH(R+), YH(b+)のレベル差をΔYHとすると、
ΔYH=YH(R+)−YH(b+)=(B−b)/4 ・・・(7)
が得られる。輝度レベル差ΔYHが凸凹を発生させる原因である。
By the way, as described above, the luminance may be obtained in a long line shape with a specific width on the subject. At this time, a luminance level difference occurs in the longitudinal direction. As a specific example, as shown in FIG. 14, a luminance level difference occurs in a portion of a subject where yellow ye is sandwiched between white W 1. However, the color G is omitted. The white W region is obtained, for example, at the same level of pixel data of three primary colors RGB. In addition, the yellow ye area 72 (b +, R +, b +, R +, b +) represents, for example, that the pixel data of the color R and the color G have the same level, and the color B represents the yellow with the pixel data of the small level b. Yes. The generation of the high-frequency luminance data Y H in the yellow region 72 is obtained by the averaging of four surrounding pixels as indicated by the flag +. When the high-frequency luminance data Y H for the pixels R + and b + is Y H (R +) and Y H (b +), respectively, the equations (6a) and (6b)
Y H (R +) = R / 2 + (B + b + B + b) / 8 = R / 2 + (B + b) / 4 (6a)
Y H (b +) = b / 2 + (R + R + R + R) / 8 = R / 2 + R / 2 (6b)
Is obtained. The level difference of the luminance data in the longitudinal direction is defined as ΔY H when the level difference between the high frequency luminance data Y H (R +) and Y H (b +) is
ΔY H = Y H (R +) − Y H (b +) = (B−b) / 4 (7)
Is obtained. The luminance level difference ΔY H is a cause of unevenness.

この対策として図6に示した領域70での垂直/水平相関判定処理を設ける。新たに加えられる垂直/水平相関判定処理は、対象の画素を含めた同色の画素を用いて行う。図14に示した用いる画素データは矢印74の指し示した先の画素データである。図11に示したサブステップSS818 以降の手順により、図15の太線で描かれた色B の画素はフラグ+ からフラグh で相関判定処理されたことを示している。このようにして1フレーム分の高周波輝度データYHの算出処理が行われる。1フレーム分の高周波輝度データYHに対してフラグパターンの比較補正を施す(図8のサブステップSS36を参照)。 As a countermeasure against this, a vertical / horizontal correlation determination process in the area 70 shown in FIG. 6 is provided. The newly added vertical / horizontal correlation determination process is performed using pixels of the same color including the target pixel. The pixel data to be used shown in FIG. 14 is the previous pixel data indicated by the arrow 74. 11 indicates that the correlation determination processing is performed on the pixel of color B drawn by the thick line in FIG. 15 from the flag + to the flag h by the procedure after sub-step SS818 shown in FIG. In this way, the calculation processing of the high-frequency luminance data Y H for one frame is performed. Performing comparison correction flag pattern for one frame of the high-frequency luminance data Y H (see sub-step SS36 of FIG. 8).

比較補正は、対象画素の色B を含む13個の実在画素を用いる(図16を参照)。13個の実在画素を含む領域76は、最上位の行の画素をu1, u2, u3、中段の行の2画素をm1, m2、そして最下位の行の画素をd1, d2, d3とする。このように比較補正の対象画素に対して周辺の8画素を用いて色R, Bの位置のフラグの訂正を行うかどうか判定する。   The comparison correction uses 13 real pixels including the color B of the target pixel (see FIG. 16). In the area 76 including 13 real pixels, the pixels in the top row are u1, u2, u3, the two pixels in the middle row are m1, m2, and the pixels in the bottom row are d1, d2, d3. . In this way, it is determined whether or not to correct the flags at the positions of the colors R and B using the surrounding eight pixels for the comparison correction target pixel.

判定条件は、最上位および最下位の行の画素のフラグが同じとき、または比較補正の対象画素に対して左右の列の画素のフラグが同じとき比較補正の対象画素のフラグを周辺画素のフラグに訂正する。たとえば、各画素がu1=u2=u3=d1=d2=d3 またはu1=m1=d1=u3=m2=d3 のフラグが水平相関h を示しているとき比較補正の対象画素b のフラグを水平相関h にセットする。より具体例としては図17の色Bhを参照されたい。このフラグ訂正と同時に、水平相関に基づく高周波輝度データYHの算出を行う。 The determination condition is that the flag of the pixel for comparison correction is the flag of the peripheral pixel when the flags of the pixels in the top and bottom rows are the same, or when the flags of the pixels in the left and right columns are the same with respect to the pixel for comparison correction To correct. For example, if each pixel has a u1 = u2 = u3 = d1 = d2 = d3 or u1 = m1 = d1 = u3 = m2 = d3 flag indicating a horizontal correlation h, the flag for the pixel b for comparison correction is Set to h. See color Bh in FIG. 17 for a more specific example. This flag corrections and simultaneously calculates the high-frequency luminance data Y H based on the horizontal correlation.

また、各画素がu1=u2=u3=d1=d2=d3 またはu1=m1=d1=u3=m2=d3 のフラグが垂直相関v を示しているとき比較補正の対象画素b のフラグを垂直相関v にセットするとともに、垂直相関に基づく高周波輝度データYHの算出を行う。そして、比較補正に基づいて算出した高周波輝度データYHを用いることにする。これにより、輝度レベル差ΔYHをなくしている。 In addition, when each pixel has a vertical correlation v indicating that u1 = u2 = u3 = d1 = d2 = d3 or u1 = m1 = d1 = u3 = m2 = d3 Set to v and calculate high-frequency luminance data Y H based on the vertical correlation. The high-frequency luminance data Y H calculated based on the comparison correction is used. Thereby, the luminance level difference ΔY H is eliminated.

次に輝度データ補間処理について説明する(サブルーチンSUB4: 図18を参照)。図13に示した配置で得られた高周波輝度データYHに基づいて仮想画素の位置での高周波輝度データYHの生成を行う(サブステップSS40)。このとき、仮想画素のそれぞれに対して垂直および水平方向に補間処理を行う。この補間処理は、たとえば図19に示すLPF (Low Pass Filter)で行う。 Next, luminance data interpolation processing will be described (subroutine SUB4: see FIG. 18). And it generates the high-frequency luminance data Y H at the position of the virtual pixel based on the high-frequency luminance data Y H placement obtained in shown in FIG. 13 (substep SS40). At this time, interpolation processing is performed in the vertical and horizontal directions for each of the virtual pixels. This interpolation processing is performed by, for example, an LPF (Low Pass Filter) shown in FIG.

このLPF について簡単に説明する。実在画素d(-3), d(-1), d(1), d(3)は実線で示し、仮想画素は破線で示し、仮想画素が4つの実在画素の間に配した関係になっている。仮想画素dn(-4), dn(-2), dn(0), dn(2), dn(4) には、実在画素との対応を考慮して、何もデータが入っていない状態と同じ関係として扱うとよい。すなわち、これらの画素には、たとえばゼロが予め設定されている(ゼロ埋込み)。たとえば図19(a) に示すように画素dn(0) を水平方向に補間するとき、ディジタルフィルタのタップ係数をk0, k1, k2, k3, k4,・・・,kn として整理すると、高周波輝度データYH(0) が式(8)
YH(0)=k0*dn(0)+k1*(d(1)+d(-1))+k2*(dn(-2)+dn(2))+k3*(d(-3)+d(3))
+k4*(dn(-4)+dn(4))+・・・kn*(dn(-n)+dn(n)) ・・・(8)
で表されるように得られる。ただし、この場合、図19(a) から明らかなように、ゼロのデータが交互に入るので、係数が2倍になる。この関係は、図19(a) におけるこの他の補間対象の画素dn(-4), dn(-2), dn(2), dn(4)に対しても当てはめる。これらの補間処理が施されることにより、高周波輝度データYH(-4), YH(-2), YH(2), YH(4)が得られる(図19(b) を参照)。
This LPF will be briefly described. Real pixels d (-3) , d (-1) , d (1) , d (3) are indicated by solid lines, virtual pixels are indicated by broken lines, and virtual pixels are arranged between four real pixels. ing. Virtual pixels d n (-4) , d n (-2) , d n (0) , d n (2) , d n (4) have no data in consideration of correspondence with real pixels. It should be treated as the same relationship as the state that does not enter. That is, for example, zero is preset in these pixels (zero embedding). For example, when the pixel d n (0) is interpolated in the horizontal direction as shown in FIG. 19 (a), the tap coefficients of the digital filter are k 0 , k 1 , k 2 , k 3 , k 4 ,. When arranged as n , the high-frequency luminance data Y H (0) is expressed by equation (8)
Y H (0) = k 0 * d n (0) + k 1 * (d (1) + d (-1) ) + k 2 * (d n (-2) + d n (2) ) + k 3 * (d (-3) + d (3) )
+ k 4 * (d n (-4) + d n (4) ) + ... k n * (d n (-n) + d n (n) ) ... (8)
Is obtained as However, in this case, as apparent from FIG. 19 (a), zero data alternately enters, so the coefficient is doubled. This relationship also applies to the other pixels dn (-4) , dn (-2) , dn (2) , and dn (4) to be interpolated in FIG. 19 (a). By performing these interpolation processes, high-frequency luminance data Y H (-4) , Y H (-2) , Y H (2) , Y H (4) are obtained (see FIG. 19 (b)). ).

そして、1フレーム分に対する上述した仮想画素の補間処理が完了したかどうかの判定を行う(サブステップSS42)。この補間処理が未完のとき(NO)、補間処理のされていない仮想画素に対して補間処理を施す(サブステップSS40に戻る)。また、1フレーム内の仮想画素すべての補間処理が完了したとき(YES )、補間処理完了としてリターンに移行する。この結果、実在画素および仮想画素の高周波輝度データYHは図20に示すように色G, Mg で表す関係に得られる。LPF 処理は、垂直方向に対しても行われる。この処理では図21に示すように各列方向に列ごとに色G, Mg が生成される。 Then, it is determined whether the above-described virtual pixel interpolation processing for one frame is completed (sub-step SS42). When this interpolation process is incomplete (NO), the interpolation process is performed on the virtual pixels that have not been subjected to the interpolation process (return to sub-step SS40). Further, when the interpolation processing for all the virtual pixels in one frame is completed (YES), the interpolation processing is completed and the process returns to return. As a result, the high frequency luminance data Y H of the real pixel and the virtual pixel is obtained in the relationship represented by the colors G and Mg as shown in FIG. LPF processing is also performed in the vertical direction. In this process, as shown in FIG. 21, colors G and Mg are generated for each column in each column direction.

なお、仮想画素の補間処理は、LPF 処理を用いる方法だけでなく、各対象の画素の周囲の実在画素との相関関係を考慮して垂直・水平方向の補間処理を施すようにしてもよい。生成した高周波輝度データYHには水平方向と垂直方向の共通する帯域の一方をなくす重複防止処理を施してもよい。 Note that the interpolation processing of the virtual pixels is not limited to the method using the LPF processing, but may be performed in the vertical and horizontal directions in consideration of the correlation with the actual pixels around each target pixel. The generated high-frequency luminance data Y H may be subjected to a duplication prevention process to eliminate one of the common band in the horizontal and vertical directions.

次に色補間処理について説明する(図22を参照: サブルーチンSUB5)。色補間処理は図3に示す色補間展開部42で行われる。色補間展開部42には、データ補正部30a から読み出した画素データ38、すなわち三原色データがR 補間展開部420, G補間展開部422,およびB 補間展開部424 にそれぞれ、供給されている。これらの供給される画素データを用いて色毎に実在画素および仮想画素の画素データの補間生成をフローチャートに従って説明する(図22を参照)。この場合、画素データG の補間処理をサブステップSS500 で最初に行う。このとき、図6に示すようにハニカム型G 正方格子RB完全市松のパターンを用いていることから、既存の画素データG を有する実在画素は、実線の八角形で表す。また、画素データG を持たない画素、すなわち仮想画素および既存の画素データを有していながら、色G と異なる色の画素は、破線の八角形で表す。ここでは、この画素データG を持たない画素も仮想画素と呼ぶ。補間処理には、4つずつ既存の画素データを用いる。   Next, color interpolation processing will be described (see FIG. 22: subroutine SUB5). The color interpolation process is performed by the color interpolation development unit 42 shown in FIG. The color interpolation development unit 42 is supplied with pixel data 38 read from the data correction unit 30a, that is, three primary color data, to the R interpolation development unit 420, the G interpolation development unit 422, and the B interpolation development unit 424, respectively. Interpolation generation of pixel data of real pixels and virtual pixels for each color using these supplied pixel data will be described according to a flowchart (see FIG. 22). In this case, the interpolation processing of the pixel data G is first performed in substep SS500. At this time, as shown in FIG. 6, since the pattern of the honeycomb type G square lattice RB complete checkered pattern is used, the existing pixels having the existing pixel data G 1 are represented by solid line octagons. A pixel having no pixel data G, that is, a pixel having a virtual pixel and existing pixel data but having a color different from the color G is represented by a dotted octagon. Here, a pixel that does not have this pixel data G is also called a virtual pixel. In the interpolation process, four pieces of existing pixel data are used.

この関係を具体的に図20に示す。図20のパターンが示すように、一行の半分が色G の実在画素データとえば残りの半分のG12, G14, G16, G18, G110, G112が仮想画素, 色G をまったく含まない行が交互には, G32, G34, G36 を補間する場合、補間処理は隣接する4つずつの画素データG11, G13, G31, G33や画素データG13, G15, G33, G35等を用いる。たとえば、補間対象である仮想画素の画素データG21 の補間は、同一の列方向の2つの画素に対応する実在画素のデータを用いて
G21 =(G11+G31)/2 ・・・(9)
から得られる。式(9) の計算式に画素データG13, G33を適用すると、仮想画素G23 を補間することができる。また、仮想画素G12 の補間は、同一の行方向の2つの画素に対応する実在画素のデータを用いて
G12 =(G11+G13)/2 ・・・(10)
から得られる。式(10)の計算式に画素データG31, G33を適用すると、仮想画素G32 を補間することができる。そして、4つずつの画素データG11, G13, G31, G33の中心に位置する画素データG22 は、これら4つの位置の画素データを用いて
G22=(G11+G13+G31+G33)/4 ・・・(11)
から得られる。式(11)の計算式に周囲の画素データG13, G15, G33, G35を用いると、仮想画素G24 を補間することができる。実在画素の4つ画素データG13, G15, G33, G35を一組のデータとみなして補間し、すでに画素データG23 は算出されているので、残る画素データG14, G34, G25 を上述した演算により算出すればよい。この実在画素を用いた補間処理を繰り返し行うことにより、画素データG のプレーン画像を作成する。ただし、プレーン画像の最外縁は、このような関係にならないので、厳密に補間を行う場合、境界値として設定しておくとよい。また、有効画面を考慮すると、この周辺部のデータは有効画面の範囲外にあるので算出しなくても構わない。
This relationship is specifically shown in FIG. As the pattern in Fig. 20 shows, if half of one row is real pixel data of color G, the other half of G 12 , G 14 , G 16 , G 18 , G 110 , G 112 is a virtual pixel, and color G is completely When rows that do not include are alternately interpolated with G 32 , G 34 , and G 36 , the interpolation processing is performed for every four adjacent pixel data G 11 , G 13 , G 31 , G 33 and pixel data G 13 , G 15 , G 33 , G 35 etc. are used. For example, interpolated pixel data G 21 virtual pixel is interpolated using the data of actual pixels corresponding to two pixels of the same column
G 21 = (G 11 + G 31 ) / 2 (9)
Obtained from. When the pixel data G 13 and G 33 are applied to the calculation formula (9), the virtual pixel G 23 can be interpolated. Also, the interpolation of the virtual pixel G 12, using the data of actual pixels corresponding to two pixels of the same row
G 12 = (G 11 + G 13 ) / 2 (10)
Obtained from. When the pixel data G 31 and G 33 are applied to the calculation formula of Expression (10), the virtual pixel G 32 can be interpolated. The pixel data G 22 located at the center of each of the four pieces of pixel data G 11 , G 13 , G 31 , G 33 is obtained by using the pixel data at these four positions.
G 22 = (G 11 + G 13 + G 31 + G 33 ) / 4 (11)
Obtained from. If the surrounding pixel data G 13 , G 15 , G 33 , G 35 is used in the calculation formula of Expression (11), the virtual pixel G 24 can be interpolated. Since the four pixel data G 13 , G 15 , G 33 , and G 35 of the existing pixels are regarded as a set of data and interpolated, and the pixel data G 23 has already been calculated, the remaining pixel data G 14 , G 34 , the G 25 may be calculated by the calculation described above. By repeating the interpolation process using the real pixels, a plain image of the pixel data G is created. However, since the outermost edge of the plane image does not have such a relationship, it is preferable to set it as a boundary value when performing interpolation strictly. Further, considering the effective screen, the data in the peripheral portion is outside the range of the effective screen and may not be calculated.

次に画素データR の算出を行う(サブステップSS502 )。画素データR における実在画素のデータは、図6に示すように1ラインおきにR00, R04, R08, R012, R22, R26, R210, R40, R44, R46,・・・ しかない。この場合、補間対象の仮想画素に対して斜めに隣接している画素データを用いる。たとえば、仮想画素R11 の画素データは、画素R00, R22の画素データを用いて、
R11 =(R00+R22)/2 ・・・(12)
によって算出される。同様に、仮想画素R31, R33 は、式(12)と同じ関係にそれぞれ画素データR40, R22および画素データR44, R22を適用して算出する。既存の画素データR26 も考慮して算出すると、隣接斜め補間処理により仮想画素R15, R35も作成することができる。
Next, pixel data R is calculated (sub-step SS502). The actual pixel data in the pixel data R is R 00 , R 04 , R 08 , R 012 , R 22 , R 26 , R 210 , R 40 , R 44 , R 46 , every other line as shown in FIG. ... In this case, pixel data that is obliquely adjacent to the interpolation target virtual pixel is used. For example, the pixel data of the virtual pixel R 11 is obtained by using the pixel data of the pixels R 00 and R 22 .
R 11 = (R 00 + R 22 ) / 2 (12)
Is calculated by Similarly, the virtual pixels R 31 and R 33 are calculated by applying the pixel data R 40 and R 22 and the pixel data R 44 and R 22 to the same relationship as the equation (12), respectively. If calculation is performed in consideration of the existing pixel data R 26 , virtual pixels R 15 and R 35 can also be created by the adjacent oblique interpolation processing.

次に一つ前の処理で算出された画素によって囲まれた画素を補間対象の画素とし、補間に際して算出されたこれら4つの画素データを用いて補間処理を行う(サブステップSS504 )。たとえば、算出対象とする仮想画素R24 を中心に図6から判るように、その周囲の画素データR13, R15, R33, R35の位置のデータを用いて、
R24 =(R13+R15+R33+R35)/4 ・・・(13)
によって算出される。式(13)と同等の関係が周辺の画素から得られるとき、補間を施すことによって、画素データR02, R20, R42 が得られる。換言すると、補間対象の画素にから見れば、補間に使用する画素データはすべて斜めに位置している。
Next, a pixel surrounded by pixels calculated in the previous process is set as a pixel to be interpolated, and interpolation processing is performed using these four pixel data calculated in the interpolation (substep SS504). For example, as can be seen from FIG. 6 with the virtual pixel R 24 to be calculated as the center, using the data of the positions of the surrounding pixel data R 13 , R 15 , R 33 , R 35 ,
R 24 = (R 13 + R 15 + R 33 + R 35 ) / 4 (13)
Is calculated by When a relationship equivalent to Expression (13) is obtained from surrounding pixels, pixel data R 02 , R 20 , and R 42 are obtained by performing interpolation. In other words, when viewed from the pixel to be interpolated, all the pixel data used for interpolation are located obliquely.

次にこれまでに得られた画素データを用いるとともに、これらの画素の内、補間対象の画素に対して上下左右に位置する画素データから補間を行う(サブステップSS506 )。たとえば、画素データR12 を中心に上下左右の4つの画素データを用いて
R12 =(R02+R11+R13+R22)/4 ・・・(14)
によって算出される。同様の位置関係にある画素データR14, R32, R14, R34等は、式(14)に対応する周辺の画素データR を代入すると算出できる。
Next, the pixel data obtained so far is used, and among these pixels, interpolation is performed from pixel data positioned vertically and horizontally with respect to the interpolation target pixel (substep SS506). For example, using four of the pixel data of the vertical and horizontal centering on the pixel data R 12
R 12 = (R 02 + R 11 + R 13 + R 22 ) / 4 (14)
Is calculated by Pixel data R 14 , R 32 , R 14 , R 34 and the like having the same positional relationship can be calculated by substituting peripheral pixel data R 1 corresponding to equation (14).

なお、周辺部には未補間の仮想画素が残ってしまうので、この仮想画素に対して周囲を囲む、たとえば3つの画素から補間するようにしてもよい。この補間の場合も前述した補間の手法を用いると、仮想画素の画素データR01 は、
R01 =(R00+R02+R11)/3 ・・・(15)
によって算出される。このようにしてこの他、画素データR03, R05, R10, R30, R41, R43, R45 が補間される。最終的に画素データR に関するプレーン画面全体が補間される。
In addition, since uninterpolated virtual pixels remain in the peripheral portion, for example, three pixels surrounding the virtual pixel may be interpolated. Also in the case of this interpolation, if the above-described interpolation method is used, the pixel data R 01 of the virtual pixel is
R 01 = (R 00 + R 02 + R 11 ) / 3 (15)
Is calculated by In this manner, pixel data R 03 , R 05 , R 10 , R 30 , R 41 , R 43 , R 45 are also interpolated. Finally, the entire plane screen related to the pixel data R is interpolated.

次に画素データB に対する補間処理が行われる(サブステップSS508, SS510, SS512 で行われる。これらの処理は、それぞれ、画素データB における隣接斜め補間処理、4つの補間データによる中央補間処理および上下左右の4画素による中央補間処理である。これらの補間処理は、前述した画素データR の補間処理(すなわち、サブステップSS502, SS504, SS506 )に準拠している。これは、画素データR と画素データB の画素配置の関係から明らかである。すなわち、画素データB の画素配置は、各色の添字に表される行列表示から、画素データR を水平(すなわち、行)方向に2列ずつ全体にシフトした配置になっている。このことから、これまで挙げた算出式を適用して仮想画素を補間する場合、行列表示で列の数字が2以上の右側で各画素データの添字の列の数字に+2だけ加算した関係で算出を行うとよい。この関係に注意して補間処理を行うと、画素データB に関するプレーン補間展開を行うことができる。この処理の後、プレーン補間の終了かどうかの判定に進む。   Next, interpolation processing is performed on pixel data B (sub-steps SS508, SS510, SS512. These processings are adjacent diagonal interpolation processing on pixel data B, central interpolation processing using four interpolation data, and upper, lower, left, and right, respectively. The central interpolation processing is performed by the four pixels of the pixel data R. The interpolation processing is based on the above-described interpolation processing of the pixel data R (that is, sub-steps SS502, SS504, SS506). It is obvious from the relationship of the pixel arrangement of B. That is, the pixel arrangement of the pixel data B is shifted from the matrix display represented by the subscript of each color to the entire pixel data R by two columns in the horizontal (ie, row) direction. For this reason, when virtual pixels are interpolated by applying the above-described calculation formulas, the pixel data is added on the right side of the matrix display where the column number is 2 or more. It is better to calculate by adding only +2 to the number in the column of 1. If interpolation processing is performed with attention to this relationship, plane interpolation development for pixel data B can be performed. Proceed to determine whether or not to end.

プレーン補間展開が各色毎にすべて終了したかどうかの判定を行う(サブステップSS514 )。一連の処理がまだ終了していないとき(NO)、サブステップSS500に戻って処理を繰り返す。なお、各色毎にこの確認処理を行ってもよい。また、一連の処理が終了したとき(YES )、リターンに移行する。この移行後、サブルーチンSUB5の処理を終了する。   It is determined whether or not the plane interpolation development has been completed for each color (substep SS514). When the series of processes has not been completed yet (NO), the process returns to sub-step SS500 and is repeated. Note that this confirmation processing may be performed for each color. When a series of processing is completed (YES), the process proceeds to return. After this transition, the processing of subroutine SUB5 is terminated.

次に広帯域化処理を説明する(図23を参照)。供給される高周波輝度データYH (44)にハイパスフィルタ(HPF )処理を施す(サブステップSS200 )。すなわち、所定の高周波帯域より高い周波数を通過させる処理を高周波輝度データYH (44) に施す。この処理により高周波輝度データの高周波成分が信号として抽出される。この高周波成分をYhとする。高周波成分Yhは図4の加算部54に出力される。加算器540, 542, 544の一端側540a, 542a, 544aには、それぞれプレーンな画素データR (46), G (48), B (50)が供給され、他端側540b, 542b, 544bには供給される画素データに対応する高周波成分の信号Yhが供給される。 Next, the broadband processing will be described (see FIG. 23). The supplied high-frequency luminance data Y H (44) is subjected to a high-pass filter (HPF) process (substep SS200). That is, the high frequency luminance data Y H (44) is subjected to processing for passing a frequency higher than a predetermined high frequency band. By this processing, the high frequency component of the high frequency luminance data is extracted as a signal. The high frequency component and Y h. High-frequency component Y h is outputted to the adder 54 of FIG. Plain pixel data R (46), G (48), and B (50) are supplied to one end sides 540a, 542a, and 544a of the adders 540, 542, and 544, respectively, and are supplied to the other end sides 540b, 542b, and 544b. Is supplied with a high-frequency component signal Y h corresponding to the supplied pixel data.

加算部54では、供給される高周波成分Yhと画素データR, G, B とを各画素ごとに加算が施される(サブステップSS202 )。一般的に、各画素の位置(i, j)として、行列表示し、三原色RGB の各画素データが広帯域化する。この広帯域化を添字H で表す。このとき、広帯域化した画素データRHij, GHij, BHijは、
RHij=Rij +Yhij ・・・(16a)
GHij=Gij +Yhij ・・・(16b)
BHij=Bij +Yhij ・・・(16c)
となる。ここで算出された画素データRHij, GHij, BHijが色差マトリクス部56に供給される。
The addition unit 54, the high-frequency component Y h and the pixel data R, G, is added to the B for each pixel is subjected to be supplied (substep SS202). In general, the position (i, j) of each pixel is displayed in a matrix, and each pixel data of the three primary colors RGB has a wide band. This broadening is represented by the subscript H. At this time, the broadband pixel data R Hij , G Hij , B Hij are
R Hij = R ij + Y hij (16a)
G Hij = G ij + Y hij (16b)
B Hij = B ij + Y hij (16c)
It becomes. The pixel data R Hij , G Hij , and B Hij calculated here are supplied to the color difference matrix unit 56.

次に供給された画素データRHij, GHij, BHijを用いて各実在画素および仮想画素のそれぞれの位置に対して色差マトリクス演算処理をすることにより広帯域化した輝度データY 、色差データCr, Cbを生成する(サブステップSS204 )。 Next, using the supplied pixel data R Hij , G Hij , and B Hij , the luminance data Y and the color difference data C r are widened by performing color difference matrix calculation processing on the position of each real pixel and virtual pixel. , C b (substep SS204).

次に得られた輝度データY 、色差データCr, Cbに対して歪み防止処理を施す(サブステップSS206 )。広帯域化して延ばした輝度データY 、色差データCr, Cbそれぞれの周波数帯域を通すとともに、これら3つのデータに折返し歪みが生じないようにローパスフィルタ処理を施す。また、歪み防止処理としては、水平および垂直方向の周波数帯域の重複している領域に対して一方の方向の重複する周波数帯域を制限している。これにより、周波数の重複に伴って生じる画質劣化を回避している。 Next, the obtained luminance data Y and color difference data C r and C b are subjected to distortion prevention processing (substep SS206). The frequency data of the luminance data Y and the color difference data C r and C b extended with a wide band are passed, and low-pass filter processing is performed so that aliasing distortion does not occur in these three data. Further, as the distortion prevention process, the overlapping frequency bands in one direction are limited with respect to the overlapping area of the frequency bands in the horizontal and vertical directions. This avoids image quality degradation caused by frequency overlap.

次に歪み防止処理を受けた輝度データY に対してアパーチャ調整を施す(サブステップSS208 )。アパーチャ調整は、輪郭強調処理に相当する処理である。そして、歪み防止処理を受けた色差データCr, Cbに対してゲイン調整を施す(サブステップSS210 )。このように処理して1フレーム分の処理が終了したかどうか判定を行う(サブステップSS212 )。1フレーム分の処理が終了していない場合(NO)、最初(サブステップSS200 )に戻って一連の処理を繰り返す。また、1フレーム分の処理が終了している場合(YES )、リターンに進んでこのサブルーチンSUB2を終了し、リターンを介してメインルーチンに移行する。 Next, aperture adjustment is performed on the luminance data Y that has been subjected to distortion prevention processing (substep SS208). Aperture adjustment is a process corresponding to the contour enhancement process. Then, gain adjustment is performed on the color difference data C r and C b subjected to the distortion prevention processing (sub-step SS210). It is determined whether or not processing for one frame has been completed in this way (sub-step SS212). If the processing for one frame has not been completed (NO), the process returns to the beginning (substep SS200) and the series of processing is repeated. If processing for one frame has been completed (YES), the process proceeds to return to end this subroutine SUB2, and proceeds to the main routine via return.

このように動作させ、相関処理の精度を高めることができることから、たとえば黄色の細線が白に挟まれるような状況を含む被写体を撮像しても撮像した画像の黄色の細線部分に段差が現れ、画質を低下させてしまうようなことを避けることができ、高画質な画像を得ることができる。   Since it can be operated in this way and the accuracy of correlation processing can be improved, for example, even if a subject including a situation in which a yellow thin line is sandwiched between white is imaged, a step appears in the yellow thin line portion of the captured image, It is possible to avoid a reduction in image quality, and a high-quality image can be obtained.

このような段差を有する細線が得られる状況は、上述した被写界を撮像した場合だけに限られるものではない。たとえば明るい領域に挟まれた暗い領域の細線間隔が大きい場合や細線間隔が小さい場合でも段差が生じる。暗い領域の細線に生じる段差のうち、前者の場合についてサブルーチンSUB8のサブステップSS816 までの処理で得られるフラグを図24に示す。   The situation where a thin line having such a step is obtained is not limited to the case where the above-described object scene is imaged. For example, a step is generated even when the fine line interval in a dark region sandwiched between bright regions is large or the fine line interval is small. FIG. 24 shows the flags obtained by the processing up to sub-step SS816 of the subroutine SUB8 in the former case among the steps generated in the thin line in the dark area.

図24では信号レベルの大きい画素データを大文字で表し、信号レベルの小さい画素データを小文字で表している。明るい領域の三原色RGB は大きく、色G に挟まれた画素R, B の画素データは周辺4画素平均から算出される。明暗の境界の画素R, Bの画素データは水平相関があることを示している。さらに、色g に挟まれた暗い領域内の画素r, bは、4画素平均から算出されている。これらの高周波輝度データYH(r+), YH(b+)は、それぞれ
YH(r+)=r/2 +(B+b+B+b)/8 =r/2 +(B+b)/4 ・・・(17a)
YH(b+)=b/2 +(R+r+R+r)/8 =b/2 +(R+r)/4 ・・・(17b)
により得られる。長手方向の輝度データのレベル差とは高周波輝度データYH(R+), YH(b+)のレベル差をΔYHとすると、
ΔYH=YH(r+)−YH(b+)=(r−R+B−b)/4 ・・・(18)
が得られる。
In FIG. 24, pixel data having a high signal level is represented by capital letters, and pixel data having a low signal level is represented by small letters. The three primary colors RGB in the bright area are large, and the pixel data of the pixels R and B sandwiched between the colors G are calculated from the average of the surrounding four pixels. The pixel data of the pixels R and B at the border between light and dark indicates that there is a horizontal correlation. Further, the pixels r and b in the dark region between the colors g are calculated from the average of four pixels. These high-frequency luminance data Y H (r +) and Y H (b +)
Y H (r +) = r / 2 + (B + b + B + b) / 8 = r / 2 + (B + b) / 4 (17a)
Y H (b +) = b / 2 + (R + r + R + r) / 8 = b / 2 + (R + r) / 4 (17b)
Is obtained. The level difference of luminance data in the longitudinal direction is the difference in level between high frequency luminance data Y H (R +) and Y H (b +) as ΔY H.
ΔY H = Y H (r +) − Y H (b +) = (r−R + B−b) / 4 (18)
Is obtained.

この現状を踏まえてサブステップSS818 〜SS824 の処理を施すと、色G や色g に挟まれている周辺4画素平均を行うことを示していたフラグ(+)が水平方向に相関があると判定され、これによりフラグ(h)になる(図25の太線の枠を参照)。このフラグ(h)に基づく画素データを用いて高周波輝度データYHを算出すると、式(18) のレベル差はゼロになっている。画素R, B, r, bに対するフラグの関係も同一になっていることから、この場合フラグパターンの比較補正は行わなくてもよい。 Based on this current situation, if the processing of substeps SS818 to SS824 is performed, it is determined that the flag (+) indicating that the average of the surrounding four pixels sandwiched between the color G and the color g is correlated in the horizontal direction As a result, the flag (h) is obtained (see the bold frame in FIG. 25). When the high-frequency luminance data Y H is calculated using the pixel data based on the flag (h), the level difference of Expression (18) is zero. Since the relationship of the flags to the pixels R, B, r, and b is also the same, the flag pattern comparison correction need not be performed in this case.

また、後者の細線間隔が狭い場合、明るい領域に挟まれた暗い領域の画素r, bはフラグ(+)が示すように4画素平均と判定されている(図26を参照)。このとき、高周波輝度データYH(r+), YH(b+)は、それぞれ式(17a), (17b)で得られる。したがって、レベル差ΔYHは式(18)となる。このレベル差を解消するように前述したサブステップSS818 〜824 の処理を施す。しかしながら、この場合暗い領域の画素r, bのフラグには相関精度の向上を目指して処理しても図26と同じ状況で何等改善されない(図27を参照)。 When the latter fine line interval is narrow, the pixels r and b in the dark region sandwiched between the bright regions are determined to be the average of four pixels as indicated by the flag (+) (see FIG. 26). At this time, the high-frequency luminance data Y H (r +) and Y H (b +) are obtained by equations (17a) and (17b), respectively. Therefore, the level difference ΔY H is expressed by equation (18). The above-described sub-steps SS818 to 824 are performed so as to eliminate this level difference. However, in this case, no improvement is made in the same situation as in FIG. 26 even if the flags of the pixels r and b in the dark region are processed to improve the correlation accuracy (see FIG. 27).

この状況を踏まえて、適応処理後フラグパターンの比較補正を行う(サブステップSS36)。対象の画素に対して上下のラインに位置する画素データB, Rを比較すると、上下のラインに位置する画素データB, Rの画素データはフラグ(h)になっていることから対象の画素のフラグを水平方向(h)に補正する。この補正に対応して高周波輝度データYHを生成すると、太線の枠で囲まれた画素位置の高周波輝度データYHにレベル差を生じさせない(図28を参照)。 Based on this situation, the post-adaptive processing flag pattern is compared and corrected (substep SS36). Comparing the pixel data B and R located on the upper and lower lines with respect to the target pixel, the pixel data B and R located on the upper and lower lines are flag (h), so the target pixel Correct the flag in the horizontal direction (h). When the high-frequency luminance data Y H is generated in correspondence with this correction, no level difference is generated in the high-frequency luminance data Y H at the pixel position surrounded by the thick line frame (see FIG. 28).

このような明暗領域が特定の幅で長手方向にある被写体において発生していたレベル差を解消して高周波輝度データYHを生成することにより出力画像を高画質にすることができる。 By generating the high-frequency luminance data Y H by eliminating the level difference that has occurred in the subject in which such a bright and dark region has a specific width and is in the longitudinal direction, the output image can be improved in image quality.

ところで、前述した輝度補間処理では、混在した色G, Mg を水平・垂直方向にLPF 補間を施して全面の高周波輝度データYHを生成したが、色G, Mg のそれぞれに着目して補間してもよい。色G に着目すると、図29に示すパターンが得られ、色Mgに着目すると、図30に示すパターンが得られる。各パターンを補間すると、図31および図32のプレーンな画素データG, Mg が得られる。さらに、輝度補間処理ではたとえば、プレーンな画素データG, Mg を対応する画素ごとに加算処理して得られるデータを高周波輝度データYHとして用いるようにしてもよい。 By the way, in the luminance interpolation processing described above, the mixed colors G and Mg are subjected to LPF interpolation in the horizontal and vertical directions to generate high-frequency luminance data Y H on the entire surface. However, interpolation is performed by paying attention to each of the colors G and Mg. May be. When attention is paid to the color G 1, the pattern shown in FIG. 29 is obtained, and when attention is paid to the color Mg, the pattern shown in FIG. 30 is obtained. When the respective patterns are interpolated, the plain pixel data G and Mg shown in FIGS. 31 and 32 are obtained. Furthermore, the luminance interpolation example, may be plain pixel data G, the data obtained by addition processing for each pixel corresponding to Mg used as the high-frequency luminance data Y H.

以上のように構成することにより、たとえば有彩色・無彩色の長手方向に長いライン状の被写体に対して対象の画素と同色の画素を幅広い領域にわたって相関検出を行うことにより、長手方向の輝度レベル差の発生を防ぎ、さらにどのような相関かを示すフラグのパターンを考慮して補正することにより相関精度を向上させることから、解像度チャートのくさび型形状と十字に交差する偽信号や直線のラインの切断等の現象の発生を抑えることができる。これにより、このような被写体を撮影した際に生じた現象を従来よりも大幅に改善することができる。   By configuring as described above, the luminance level in the longitudinal direction can be obtained by performing correlation detection of a pixel of the same color as the target pixel over a wide area, for example, for a chromatic / achromatic long object in the longitudinal direction. The correlation accuracy is improved by preventing the difference from occurring and taking into account the pattern of the flag indicating the correlation, thereby improving the correlation accuracy. Therefore, the false signal or straight line that intersects the wedge shape of the resolution chart and the cross Occurrence of phenomena such as cutting can be suppressed. As a result, the phenomenon that occurs when such a subject is photographed can be significantly improved as compared to the conventional case.

10 ディジタルカメラ
12 光学レンズ系
14 操作部
16 システムバス
18 システム制御部
26 撮像部
30 信号処理部
30a データ補正部
30b 補間処理部
30c 広帯域化処理部
32 圧縮/伸長処理部




10 Digital camera
12 Optical lens system
14 Operation unit
16 System bus
18 System controller
26 Image sensor
30 Signal processor
30a Data correction unit
30b Interpolation processor
30c Broadband processing section
32 Compression / decompression processor




Claims (14)

被写界からの入射光を三原色に分解し、得られた三原色の入射光を光電変換する複数の撮像素子が隣接する撮像素子の幾何学的な中心に対して行および/または列方向に半ピッチずらして配設され、該撮像素子を実在画素とし、該撮像素子から得られる撮像信号のそれぞれをディジタルの画素データにして、該画素データを用いて画素間に新たな画素を仮想画素として生成する補間処理を施し、輝度および色差データを生成する画像信号処理方法において、該方法は、
前記画素データを2次元に表示した際に、前記画素データの緑色が正方格子状に得られ、前記緑色を挟む一方の対角位置の実在画素からの赤色の画素データと、他方の対角位置の実在画素からの青色の画素データとをそれぞれ得る第1の工程と、
前記赤色および前記青色の実在画素のいずれか一方を対象の画素とした際に、該対象の画素に対する相関判別の領域の頂点を、少なくとも該対象の画素と同色の画素で表わす領域にまで広げて相関判別することにより相関精度を向上させて判定しながら、該相関方向に位置する該対象の画素と異色の周囲の他方の複数の画素データを用いて緑色の補色の画素データを、輝度データとして生成する第2の工程と、
該補色の画素データと前記緑色の画素データを用いて水平および/または垂直方向に位置する同一色の画素データから前記仮想画素における輝度データを補間生成し、得られた実在画素および仮想画素それぞれの色属性を基に該実在画素および仮想画素すべてに対して得られた色属性と異なる前記赤色、青色および緑色すべてを補間生成する第3の工程と、
補間生成した輝度データが有する所定の高周波帯域より高い周波数を通過させて得た高周波成分の信号を各画素の三原色の画素データそれぞれに加算して、各色の画素データの広帯域化処理を行う第4の工程とを含むことを特徴とする画像信号処理方法。
A plurality of image sensors that photoelectrically convert the incident light of the three primary colors is separated in half in the row and / or column direction with respect to the geometric center of the adjacent image sensor. Disposed at a pitch, the image sensor is a real pixel, each image signal obtained from the image sensor is digital pixel data, and a new pixel is generated as a virtual pixel between the pixels using the pixel data In the image signal processing method for performing the interpolation processing to generate luminance and color difference data, the method includes:
When the pixel data is displayed two-dimensionally, the green color of the pixel data is obtained in a square lattice pattern, and the red pixel data from the actual pixels at one diagonal position sandwiching the green color and the other diagonal position A first step of obtaining blue pixel data from real pixels of
When one of the red and blue real pixels is set as a target pixel, the vertex of the correlation determination area for the target pixel is expanded to at least a region represented by a pixel of the same color as the target pixel. While determining the correlation accuracy to improve the correlation accuracy, the pixel data of the complementary color of green is used as luminance data by using the other plurality of pixel data around the target pixel located in the correlation direction and the other color. A second step of generating;
Using the complementary color pixel data and the green pixel data, luminance data in the virtual pixel is generated by interpolation from pixel data of the same color located in the horizontal and / or vertical direction, and the obtained real pixel and virtual pixel are obtained. A third step of interpolating and generating all the red, blue and green colors different from the color attributes obtained for all the real pixels and virtual pixels based on the color attributes;
A high-frequency component signal obtained by passing a frequency higher than a predetermined high-frequency band included in the luminance data generated by the interpolation is added to the pixel data of the three primary colors of each pixel, and the band processing of the pixel data of each color is performed. The image signal processing method characterized by including these processes.
請求項1に記載の方法において、第2の工程は、前記対象の画素と同色で水平および垂直方向に位置する画素データを用いて水平/垂直方向の相関判別を行う第5の工程とを含むことを特徴とする画像信号処理方法。   2. The method according to claim 1, wherein the second step includes a fifth step of performing horizontal / vertical correlation determination using pixel data of the same color as the target pixel and positioned in the horizontal and vertical directions. An image signal processing method. 請求項2に記載の方法において、第5の工程は、前記相関判別を行う前に、前記対象の画素データの左水平方向に位置する前記対象の画素と同色の画素データと前記対象の画素データとの差分絶対値を第1水平差分絶対値とし、前記対象の画素データと前記対象の画素データの右水平方向に位置する前記対象の画素と同色の画素データとの差分絶対値を第2水平差分絶対値とし、前記第1および第2水平差分絶対値の加算値を水平比較データとし、前記対象の画素データの上垂直方向に位置する前記対象の画素データと同色の画素データと前記対象の画素データとの差分絶対値を第1垂直差分絶対値とし、前記対象の画素データと前記対象の画素データの下垂直方向に位置する前記対象の画素と同色の画素データとの差分絶対値を第2垂直差分絶対値とし、前記第1および第2垂直差分絶対値の加算値を垂直比較データとしてそれぞれあらかじめ算出し、前記水平比較データから前記垂直比較データを減算した結果が所定の値以上の大きさのとき、垂直相関があると判定する第1の判定工程と、
前記垂直比較データから前記水平比較データを減算した結果が所定の値以上の大きさのとき、水平相関があると判定する第2の判定工程と、
第1および第2の判定のいずれとも異なるとき無相関と判定する第3の判定工程とを含むことを特徴とする画像信号処理方法。
3. The method according to claim 2, wherein, before performing the correlation determination, the fifth step includes pixel data having the same color as the target pixel located in a left horizontal direction of the target pixel data and the target pixel data. Is the first horizontal difference absolute value, and the difference absolute value between the target pixel data and the pixel data of the same color as the target pixel located in the right horizontal direction of the target pixel data is the second horizontal difference The difference absolute value is set, and the added value of the first and second horizontal difference absolute values is set as horizontal comparison data. The pixel data of the same color as the target pixel data located in the upper vertical direction of the target pixel data and the target The difference absolute value from the pixel data is defined as a first vertical difference absolute value, and the difference absolute value between the target pixel data and the pixel data of the same color as the target pixel located in the lower vertical direction of the target pixel data is 2 vertical difference When the absolute value is obtained, the addition value of the first and second vertical difference absolute values is previously calculated as vertical comparison data, and the result obtained by subtracting the vertical comparison data from the horizontal comparison data is greater than or equal to a predetermined value. A first determination step of determining that there is a vertical correlation;
A second determination step of determining that there is a horizontal correlation when the result of subtracting the horizontal comparison data from the vertical comparison data is greater than or equal to a predetermined value;
And a third determination step of determining that there is no correlation when different from both of the first and second determinations.
請求項3に記載の方法において、該方法は、第1または第2の判定工程の結果、前記相関判別で相関が有る場合、前記対象の画素データを挟んで該対象の画素データと異色で、かつ前記相関方向の近傍に位置する一対の画素データの加算平均と前記対象の画素の画素データとにそれぞれ半分の重み係数を乗算した和をとる第6の工程と、
前記相関判別で無相関の場合、前記対象の画素データと前記対象の画素データ対して周辺に位置する異色の画素データの加算平均とにそれぞれ半分の重み係数を乗算した和をとる第7の工程とを含むことを特徴とする画像信号処理方法。
The method according to claim 3, wherein when there is a correlation in the correlation determination as a result of the first or second determination step, the method is different in color from the target pixel data across the target pixel data. And a sixth step of calculating a sum obtained by multiplying an average of a pair of pixel data located in the vicinity of the correlation direction and pixel data of the target pixel by a half weighting factor,
In the case where there is no correlation in the correlation determination, a seventh step of taking the sum obtained by multiplying the target pixel data and the addition average of pixel data of different colors located around the target pixel data by a half weight coefficient, respectively And an image signal processing method.
請求項3に記載の方法において、第2の工程は、前記実在画素に対する相関判別を行った後に、前記対象の画素に対して該対象の画素と異なる周囲の赤色および青色の一方の画素データのうち、前記対象の画素を挟む上下の画素データまたは左右の画素データがいずれの方向に相関があるかフラグを用いて比較する第8の工程と、
前記領域を広げて相関判別した結果、比較した画素データがすべて同方向に相関している場合、該対象の画素の相関も周囲の画素と同じ方向に相関があると判定して補正し、該補正した結果に応じて前記対象の画素データと前記対象の画素データを挟んで該対象の画素データと異色で、かつ前記相関方向の近傍に位置する一対の画素データの加算平均と前記対象の画素の画素データとにそれぞれ半分の重み係数を乗算した和をとって輝度データを生成する第9の工程と、
前記領域を広げて相関判別した結果、前記判定した画素データの一つでも異なる方向の相関が得られた場合、前記対象の画素に対して割り当てられた相関をそのまま輝度データの生成に用いて輝度データを生成する第10の工程とを含むことを特徴とする画像信号処理方法。
The method according to claim 3, wherein the second step is to perform correlation determination on the real pixel, and then, for the target pixel, one of the surrounding red and blue pixel data different from the target pixel. Among them, an eighth step of comparing using a flag whether the upper and lower pixel data or the left and right pixel data sandwiching the target pixel is correlated in which direction;
As a result of expanding the area and determining the correlation, if all the compared pixel data are correlated in the same direction, the correlation of the target pixel is determined to be correlated in the same direction as the surrounding pixels, and corrected. According to the corrected result, the target pixel data and the target pixel data are different in color from the target pixel data, and an addition average of a pair of pixel data located in the vicinity of the correlation direction and the target pixel A ninth step of generating luminance data by taking the sum of each pixel data multiplied by a half weighting factor;
As a result of correlation determination by expanding the region, if even one of the determined pixel data has a correlation in a different direction, the correlation assigned to the target pixel is used as it is for luminance data generation. An image signal processing method comprising: a tenth step of generating data.
請求項5に記載の方法において、第9の工程は、前記対象の画素に対する前記周辺の画素の相関において、相関判別する領域それぞれで得られた比較補正の対象のフラグを周辺画素のフラグに訂正して、周囲の相関方向と同方向に相関があると判定し、該判断結果に応じて前記対象の画素データと前記対象の画素データを挟んで該対象の画素データと異色で、かつ前記相関方向の近傍に位置する一対の画素データの加算平均と前記対象の画素の画素データとにそれぞれ半分の重み係数を乗算した和をとって輝度データを生成することを特徴とする画像信号処理方法。   6. The method according to claim 5, wherein, in the correlation of the peripheral pixels with respect to the target pixel, the ninth step corrects the target flag for comparison correction obtained in each of the areas to be subjected to correlation determination to the flag of the peripheral pixel. Then, it is determined that there is a correlation in the same direction as the surrounding correlation direction, and the target pixel data and the target pixel data are sandwiched between the target pixel data according to the determination result, and the correlation is different from the target pixel data. An image signal processing method, wherein luminance data is generated by taking a sum obtained by multiplying an average of a pair of pixel data located in the vicinity of a direction and pixel data of the target pixel by a half weighting factor. 請求項1ないし6のいずれか一項に記載の方法において、第3の工程は、前記仮想画素にあらかじめ所定のデータを挿入後、垂直方向および/または水平方向にローパスフィルタ処理を施すことを特徴とする画像信号処理方法。   The method according to any one of claims 1 to 6, wherein the third step performs low-pass filter processing in the vertical direction and / or the horizontal direction after predetermined data is inserted into the virtual pixel in advance. An image signal processing method. 被写界からの入射光を三原色に分解し、得られた三原色の入射光を光電変換する複数の撮像素子が隣接する撮像素子の幾何学的な中心に対して行および/または列方向に半ピッチずらして配設され、該撮像素子を実在画素とし、該撮像素子から得られる撮像信号のそれぞれをディジタルの画素データにして、該画素データを用いて画素間に新たな画素を仮想画素として生成する補間処理を施し、輝度および色差データを生成する画像信号処理方法において、該方法は、
前記画素データを2次元に表示した際に、前記画素データの緑色が正方格子状に得られ、前記緑色を挟む一方の対角位置の実在画素からの赤色の画素データと、他方の対角位置の実在画素からの青色の画素データとをそれぞれ得る第1の工程と、
読み出した緑色の画素データを用いて前記仮想画素も補間処理しながら、輝度データとして緑色の画面を作成する第2の工程と、
読み出した画素データのうち、前記赤色および前記青色の実在画素のいずれか一方を対象の画素とした際に、該対象の画素に対する相関判別の領域の頂点を、少なくとも該対象の画素と同色の画素で表わす領域にまで広げて相関判別することにより相関精度を向上させて判定しながら、該相関方向に位置する該対象の画素と異色の周囲の他方の複数の画素データを用いて緑色の補色の画素データを生成するとともに、該補色の画素データを用いて前記仮想画素も補間処理し、該補色の画面を作成して、輝度データを生成する第3の工程と、
得られた緑色の画面と前記補色の画面とを加算して、実在および仮想画素すべてに対する輝度データを生成し、さらに、得られた実在画素および仮想画素それぞれの色属性を基に該実在画素および仮想画素すべてに対して得られた色属性と異なる前記赤色、青色および緑色すべてを補間生成する第4の工程と、
補間生成した輝度データが有する所定の高周波帯域より高い周波数を通過させて得た高周波成分の信号を各画素の三原色の画素データそれぞれに加算して、各色の画素データを広帯域化する第5の工程とを含むことを特徴とする画像信号処理方法。
A plurality of image sensors that photoelectrically convert the incident light of the three primary colors is separated in half in the row and / or column direction with respect to the geometric center of the adjacent image sensor. Disposed at a pitch, the image sensor is a real pixel, each image signal obtained from the image sensor is digital pixel data, and a new pixel is generated as a virtual pixel between the pixels using the pixel data In the image signal processing method for performing the interpolation processing to generate luminance and color difference data, the method includes:
When the pixel data is displayed two-dimensionally, the green color of the pixel data is obtained in a square lattice pattern, and the red pixel data from the actual pixels at one diagonal position sandwiching the green color and the other diagonal position A first step of obtaining blue pixel data from real pixels of
A second step of creating a green screen as luminance data while interpolating the virtual pixel using the read green pixel data;
Among the read pixel data, when any one of the red and blue real pixels is set as a target pixel, the vertex of the correlation determination area for the target pixel is at least a pixel of the same color as the target pixel The target pixel located in the correlation direction and the other plurality of pixel data around different colors are used to determine the correlation color of the green color. A third step of generating pixel data, interpolating the virtual pixel using the complementary color pixel data, creating the complementary color screen, and generating luminance data;
The obtained green screen and the complementary color screen are added to generate luminance data for all the real and virtual pixels, and the real pixels and the virtual pixels are obtained based on the color attributes of the real pixels and the virtual pixels, respectively. A fourth step of interpolating and generating all the red, blue and green colors that differ from the color attributes obtained for all virtual pixels;
A fifth step of widening the pixel data of each color by adding the high-frequency component signal obtained by passing a frequency higher than the predetermined high-frequency band of the luminance data interpolated to each pixel data of the three primary colors of each pixel. And an image signal processing method.
請求項8に記載の方法において、第3の工程は、前記対象の画素と同色で水平および垂直方向に位置する画素データを用いて水平/垂直方向の相関判別を行う第6の工程とを含むことを特徴とする画像信号処理方法。   9. The method according to claim 8, wherein the third step includes a sixth step of performing horizontal / vertical correlation determination using pixel data of the same color as the target pixel and positioned in the horizontal and vertical directions. An image signal processing method. 請求項9に記載の方法において、第6の工程は、前記相関判別を行う前に、前記対象の画素データの左水平方向に位置する前記対象の画素と同色の画素データと前記対象の画素データとの差分絶対値を第1水平差分絶対値とし、前記対象の画素データと前記対象の画素データの右水平方向に位置する前記対象の画素と同色の画素データとの差分絶対値を第2水平差分絶対値とし、前記第1および第2水平差分絶対値の加算値を水平比較データとし、前記対象の画素データの上垂直方向に位置する前記対象の画素データと同色の画素データと前記対象の画素データとの差分絶対値を第1垂直差分絶対値とし、前記対象の画素データと前記対象の画素データの下垂直方向に位置する前記対象の画素と同色の画素データとの差分絶対値を第2垂直差分絶対値とし、前記第1および第2垂直差分絶対値の加算値を垂直比較データとしてそれぞれあらかじめ算出し、前記水平比較データから前記垂直比較データを減算した結果が所定の値以上の大きさのとき、垂直相関があると判定する第1の判定工程と、
前記垂直比較データから前記水平比較データを減算した結果が所定の値以上の大きさのとき、水平相関があると判定する第2の判定工程と、
第1および第2の判定のいずれとも異なるとき無相関と判定する第3の判定工程とを含むことを特徴とする画像信号処理方法。
10. The method according to claim 9, wherein, before performing the correlation determination, the sixth step includes pixel data having the same color as the target pixel located in a left horizontal direction of the target pixel data and the target pixel data. Is the first horizontal difference absolute value, and the difference absolute value between the target pixel data and the pixel data of the same color as the target pixel located in the right horizontal direction of the target pixel data is the second horizontal difference The difference absolute value is set, and the added value of the first and second horizontal difference absolute values is set as horizontal comparison data. The pixel data of the same color as the target pixel data located in the upper vertical direction of the target pixel data and the target The difference absolute value from the pixel data is defined as a first vertical difference absolute value, and the difference absolute value between the target pixel data and the pixel data of the same color as the target pixel located in the lower vertical direction of the target pixel data is 2 vertical difference When the absolute value is obtained, the addition value of the first and second vertical difference absolute values is previously calculated as vertical comparison data, and the result obtained by subtracting the vertical comparison data from the horizontal comparison data is greater than or equal to a predetermined value. A first determination step of determining that there is a vertical correlation;
A second determination step of determining that there is a horizontal correlation when the result of subtracting the horizontal comparison data from the vertical comparison data is greater than or equal to a predetermined value;
And a third determination step of determining that there is no correlation when different from both of the first and second determinations.
請求項10に記載の方法において、第1または第2の判定工程の結果、前記相関判別で相関が有る場合、前記対象の画素データを挟んで該対象の画素データと異色で、かつ前記相関方向の近傍に位置する一対の画素データの加算平均と前記対象の画素の画素データとにそれぞれ半分の重み係数を乗算した和をとる第7の工程と、
前記相関判別で無相関の場合、前記対象の画素データと前記対象の画素データ対して周辺に位置する異色の画素データの加算平均とにそれぞれ半分の重み係数を乗算した和をとる第8の工程とを含むことを特徴とする画像信号処理方法。
11. The method according to claim 10, wherein if there is a correlation in the correlation determination as a result of the first or second determination step, the target pixel data is different in color from the target pixel data and the correlation direction A seventh step of calculating a sum obtained by multiplying an average of a pair of pixel data located in the vicinity of the pixel data and pixel data of the target pixel by a half weighting factor,
In the case of non-correlation in the correlation determination, an eighth step of taking the sum obtained by multiplying the target pixel data and the average of pixel data of different colors located in the vicinity of the target pixel data by a half weight coefficient, respectively. And an image signal processing method.
請求項10に記載の方法において、第3の工程は、前記実在画素に対する相関判別を行った後に、前記対象の画素に対して該対象の画素と異なる周囲の赤色および青色の一方の画素データのうち、前記対象の画素を挟む上下の画素データまたは左右の画素データがいずれの方向に相関があるかフラグを用いて比較する第9の工程と、
前記領域を広げて相関判別した結果、比較した画素データがすべて同方向に相関している場合、該対象の画素の相関も周囲の画素と同じ方向に相関があると判定して補正し、該補正した結果に応じて前記対象の画素データと前記対象の画素データを挟んで該対象の画素データと異色で、かつ前記相関方向の近傍に位置する一対の画素データの加算平均と前記対象の画素の画素データとにそれぞれ半分の重み係数を乗算した和をとって輝度データを生成する第10の工程と、
前記領域を広げて相関判別した結果、前記判定した画素データの一つでも異なる方向の相関が得られた場合、前記対象の画素に対して割り当てられた相関をそのまま輝度データの生成に用いて輝度データを生成する第11の工程とを含むことを特徴とする画像信号処理方法。
11. The method according to claim 10, wherein after performing correlation determination on the real pixel, the third step is to calculate one of the surrounding red and blue pixel data different from the target pixel with respect to the target pixel. Among them, a ninth step of comparing using a flag whether the upper and lower pixel data or the left and right pixel data sandwiching the target pixel is correlated in which direction;
As a result of expanding the area and determining the correlation, if all the compared pixel data are correlated in the same direction, the correlation of the target pixel is determined to be correlated in the same direction as the surrounding pixels, and corrected. According to the corrected result, the target pixel data and the target pixel data are different in color from the target pixel data, and an addition average of a pair of pixel data located in the vicinity of the correlation direction and the target pixel A tenth step of generating luminance data by taking the sum of each pixel data multiplied by a half weighting factor;
As a result of correlation determination by expanding the region, if even one of the determined pixel data has a correlation in a different direction, the correlation assigned to the target pixel is used as it is for luminance data generation. An image signal processing method comprising: an eleventh step of generating data.
請求項12に記載の方法において、第11の工程は、前記対象の画素に対する前記周辺の画素の相関において、相関判別する領域それぞれで得られた比較補正の対象のフラグを周辺画素のフラグに訂正して、周囲の相関方向と同方向に相関があると判定し、該判断結果に応じて前記対象の画素データと前記対象の画素データを挟んで該対象の画素データと異色で、かつ前記相関方向の近傍に位置する一対の画素データの加算平均と前記対象の画素の画素データとにそれぞれ半分の重み係数を乗算した和をとって輝度データを生成することを特徴とする画像信号処理方法。   13. The method according to claim 12, wherein in the correlation of the peripheral pixels with the target pixel, the eleventh step corrects the target flag of the comparison correction obtained in each of the correlation determination regions into the peripheral pixel flag. Then, it is determined that there is a correlation in the same direction as the surrounding correlation direction, and the target pixel data and the target pixel data are sandwiched between the target pixel data according to the determination result, and the correlation is different from the target pixel data. An image signal processing method, wherein luminance data is generated by taking a sum obtained by multiplying an average of a pair of pixel data located in the vicinity of a direction and pixel data of the target pixel by a half weighting factor. 請求項8に記載の方法において、第2および第3の工程で行う前記仮想画素の補間処理は、それぞれの工程で前記仮想画素にあらかじめ所定のデータを挿入後、垂直方向および/または水平方向にローパスフィルタ処理または前記仮想画素の周辺に位置する画素データの相関判断に応じた前記緑色および前記緑色の補色の生成を行うことを特徴とする画像信号処理方法。
9. The method according to claim 8, wherein the virtual pixel interpolation processing performed in the second and third steps is performed in a vertical direction and / or a horizontal direction after predetermined data is previously inserted into the virtual pixel in each step. An image signal processing method, wherein the green and the complementary color of green are generated in accordance with a low-pass filter process or a correlation determination of pixel data located around the virtual pixel.
JP2009236043A 2009-10-13 2009-10-13 Image signal processing method Expired - Fee Related JP4934183B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009236043A JP4934183B2 (en) 2009-10-13 2009-10-13 Image signal processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009236043A JP4934183B2 (en) 2009-10-13 2009-10-13 Image signal processing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2000390121A Division JP4503823B2 (en) 2000-12-22 2000-12-22 Image signal processing method

Publications (2)

Publication Number Publication Date
JP2010016883A JP2010016883A (en) 2010-01-21
JP4934183B2 true JP4934183B2 (en) 2012-05-16

Family

ID=41702448

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009236043A Expired - Fee Related JP4934183B2 (en) 2009-10-13 2009-10-13 Image signal processing method

Country Status (1)

Country Link
JP (1) JP4934183B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5631769B2 (en) * 2011-02-17 2014-11-26 株式会社東芝 Image processing device
JP7299398B1 (en) 2022-10-14 2023-06-27 株式会社 日立産業制御ソリューションズ Image processing device and image processing method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5629734A (en) * 1995-03-17 1997-05-13 Eastman Kodak Company Adaptive color plan interpolation in single sensor color electronic camera
JP2000152263A (en) * 1998-11-17 2000-05-30 Fuji Photo Film Co Ltd Solid-state image pickup device and image data generating method
JP2000184686A (en) * 1998-12-16 2000-06-30 Shinko Electric Co Ltd Linear motor and its electromagnetic brake device
JP2000188762A (en) * 1998-12-21 2000-07-04 Nikon Corp Interpolation processing unit and recording medium stored with interpolation processing program
JP2000197067A (en) * 1998-12-28 2000-07-14 Fuji Photo Film Co Ltd Solid-state image pickup device and image data generating method

Also Published As

Publication number Publication date
JP2010016883A (en) 2010-01-21

Similar Documents

Publication Publication Date Title
JP4503823B2 (en) Image signal processing method
JP4195169B2 (en) Solid-state imaging device and signal processing method
US9729805B2 (en) Imaging device and defective pixel correction method
JP4372955B2 (en) Solid-state imaging device and signal processing method
JP2004241991A (en) Imaging apparatus, image processor, and image processing program
JP2004304706A (en) Solid-state imaging apparatus and interpolation processing method thereof
JP2001016597A (en) Solid-state image pickup device and signal processing method
US8320714B2 (en) Image processing apparatus, computer-readable recording medium for recording image processing program, and image processing method
JP5621053B2 (en) Image processing apparatus, method and program, and imaging apparatus
JP2010277267A (en) Image processing apparatus, imaging apparatus, and image processing method
JP4912979B2 (en) Image processing apparatus, image processing method, and program
JP4934183B2 (en) Image signal processing method
JP5948167B2 (en) Imaging device
JP2000197067A (en) Solid-state image pickup device and image data generating method
JP4581633B2 (en) Color signal correction method, apparatus and program
JP3730063B2 (en) Color component generation apparatus, color component generation method, and multicolor image pickup apparatus using the same
JP2001054127A (en) Solid-state image pickup device and pixel defect compensation method
JP4243412B2 (en) Solid-state imaging device and signal processing method
JP2001036809A (en) Solid-state image pickup device and image processing method
JP2002209100A (en) Image processor and image processing method
JP2011041094A (en) Image processing apparatus, imaging apparatus, and method of processing image
JP2011041094A5 (en)
JP4687454B2 (en) Image processing apparatus and imaging apparatus
JP4133179B2 (en) Image signal processing device
JP4309506B2 (en) Imaging device and imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120207

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120217

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150224

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees