[go: up one dir, main page]

JP2010212814A - Calibration device, calibration method, calibration program, computer-readable recording medium, and image input device - Google Patents

Calibration device, calibration method, calibration program, computer-readable recording medium, and image input device Download PDF

Info

Publication number
JP2010212814A
JP2010212814A JP2009054233A JP2009054233A JP2010212814A JP 2010212814 A JP2010212814 A JP 2010212814A JP 2009054233 A JP2009054233 A JP 2009054233A JP 2009054233 A JP2009054233 A JP 2009054233A JP 2010212814 A JP2010212814 A JP 2010212814A
Authority
JP
Japan
Prior art keywords
pixel value
light intensity
image sensor
sensor
calibration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009054233A
Other languages
Japanese (ja)
Inventor
Hirokazu Sasamoto
博和 佐々本
Ryoji Yoshimoto
良治 吉本
Akira Fujiwara
晶 藤原
Yoichiro Hachiman
洋一郎 八幡
Kazuyuki Nako
和行 名古
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2009054233A priority Critical patent/JP2010212814A/en
Priority to CN201010123162.6A priority patent/CN101827222A/en
Publication of JP2010212814A publication Critical patent/JP2010212814A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

【課題】複数の画像入力装置から出力される画素値のばらつきを統一するキャリブレーション装置を提供する。
【解決手段】キャリブレーション装置50では、画像入力装置100aの暗光強度及びセンサ飽和画素値に対する画素値として、Target_Min、Target_Minが割り当てられ、画像入力装置100aの暗光強度センサ画素値、明光強度センサ画素値、及びセンサ飽和画素値と、Target_Min、及びTarget_Minとに基づいて、画像入力装置100aの明光強度に対する画素値としてTarget_Midを算出する算出部11と、キャリブレーション後の画素値として、暗光強度、及び明光強度に対して、Target_Min、及びTarget_Midを割り当てるマッピング部13と、を備える。それゆえ、キャリブレーション装置50は、画像入力装置100a〜100cから出力される画素値のばらつきを統一することができる。
【選択図】図1
A calibration device that unifies variations in pixel values output from a plurality of image input devices.
In a calibration device, Target_Min and Target_Min are assigned as pixel values for the dark light intensity and sensor saturation pixel value of the image input device 100a, and the dark light intensity sensor pixel value and the bright light intensity sensor of the image input device 100a are assigned. Based on the pixel value, sensor saturation pixel value, Target_Min, and Target_Min, the calculation unit 11 that calculates Target_Mid as the pixel value for the bright light intensity of the image input device 100a, and the dark light intensity as the pixel value after calibration And a mapping unit 13 for assigning Target_Min and Target_Mid to the bright light intensity. Therefore, the calibration device 50 can unify variations in pixel values output from the image input devices 100a to 100c.
[Selection] Figure 1

Description

本発明は、イメージセンサから出力される画素値をキャリブレーションすることにより、複数のイメージセンサから出力される画素値のばらつきを統一するキャリブレーション装置、キャリブレーション方法、キャリブレーションプログラム、そのキャリブレーションプログラムを記録したコンピュータ読み取り可能な記録媒体、及びそのキャリブレーション装置を備えた画像入力装置に関する。   The present invention relates to a calibration device, a calibration method, a calibration program, and a calibration program for unifying variations in pixel values output from a plurality of image sensors by calibrating pixel values output from an image sensor. The present invention relates to a computer-readable recording medium on which the image is recorded and an image input apparatus including the calibration device.

近年、携帯電話、PDC等の小型情報端末は、パネル面上の画像を読み取るイメージセンサを搭載する。そして、イメージセンサは、液晶を駆動する駆動回路と光センサ素子とを同一表示パネル内に実装することにより、画像の入力と共に、画像の表示を行う。さらに、イメージセンサは、入力した画像をデータ処理することにより、タッチパネルとしての画像表示部をユーザに提供する。   In recent years, small information terminals such as mobile phones and PDCs are equipped with an image sensor that reads an image on a panel surface. And an image sensor displays an image with the input of an image by mounting the drive circuit and optical sensor element which drive a liquid crystal in the same display panel. Further, the image sensor provides the user with an image display unit as a touch panel by processing the input image.

ここで、画像の入力(撮像)には、CCD(Charge Coupled Device)等の光センサ素子が使用される。しかしながら、その光センサ素子は、個体ごとに出力特性が異なるため、それに伴ってイメージセンサにも出力のばらつきが生じる。そして、そのばらつきは、複数のイメージセンサが同一の画像を撮像した場合に、品質の異なる画像が撮像されてしまうという問題を招く。従って、その問題を解決するためには、複数のイメージセンサから出力される画素値のばらつきを補正し、統一する必要がある。   Here, an optical sensor element such as a CCD (Charge Coupled Device) is used for image input (imaging). However, since the output characteristics of the optical sensor element are different for each individual, the output variation also occurs in the image sensor accordingly. The variation causes a problem that when a plurality of image sensors capture the same image, images of different quality are captured. Therefore, in order to solve the problem, it is necessary to correct and unify variations in pixel values output from a plurality of image sensors.

特許文献1、2には、光センサ素子のキャリブレーション方法が開示されている。   Patent Documents 1 and 2 disclose calibration methods for optical sensor elements.

特開昭61−53868号公報(公開日1986年3月17日)JP 61-53868 (Released on March 17, 1986) 特開2004−93894号公報(公開日2004年3月25日)JP 2004-93894 A (publication date March 25, 2004)

しかしながら、特許文献1、2に記載のキャリブレーション方法は、高品位な画像を撮像するために、光センサ素子ごとの出力特性をキャリブレーションする方法であって、複数のイメージセンサから出力される画素値のばらつきを統一する方法に関するものではない。   However, the calibration methods described in Patent Documents 1 and 2 are methods for calibrating output characteristics for each optical sensor element in order to capture a high-quality image, and are pixels output from a plurality of image sensors. It is not related to a method for unifying the dispersion of values.

従って、当該方法では、複数のイメージセンサから出力される画素値のばらつきを統一することはできず、感度に差があるイメージセンサ間では、同一の画像を入力した場合に均一な画質に揃えることができない。   Therefore, in this method, it is impossible to unify the dispersion of pixel values output from a plurality of image sensors, and uniform image quality can be obtained when the same image is input between image sensors having different sensitivities. I can't.

また、イメージセンサごとの出力のばらつきは、現実には、専門の品質管理スタッフが製品出荷時に人手で調整する。しかしながら、イメージセンサは製造ロットごとにばらつきが大きいため、その方法では多大な時間と手間を作業員に強いることになる。   Further, the output variation for each image sensor is actually adjusted manually by a professional quality control staff at the time of product shipment. However, since image sensors vary greatly from one production lot to another, this method requires a great deal of time and effort on the operator.

本発明は、上記の問題点に鑑みてなされたものであり、その目的は、複数のイメージセンサから出力される画素値のばらつきを統一するキャリブレーション装置、キャリブレーション方法、キャリブレーションプログラム、そのキャリブレーションプログラムを記録したコンピュータ読み取り可能な記録媒体、及びそのようなキャリブレーション装置を備えた画像入力装置を提供することにある。   The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a calibration apparatus, a calibration method, a calibration program, and a calibration program for unifying variations in pixel values output from a plurality of image sensors. Another object of the present invention is to provide a computer-readable recording medium in which a recording program is recorded, and an image input device including such a calibration device.

本発明に係るキャリブレーション装置は、前記課題を解決するために、複数のイメージセンサから出力される画素値を、同一の光強度に対して同一の画素値に統一するキャリブレーション装置であって、前記複数のイメージセンサのうち、キャリブレーションするイメージセンサを対象イメージセンサ、代表的に選択されたイメージセンサを基準イメージセンサとし、また、暗条件下の光強度を第1光強度、その第1光強度よりも高い2つの光強度を、光強度の低い順に第2及び第3光強度とした場合に、前記基準イメージセンサの前記第1及び第3光強度に対する画素値として、第1割当画素値、及び前記第1割当画素値よりも大きい第3割当画素値を、それぞれ割り当てる第1割当手段と、前記第1〜第3光強度に対する前記基準イメージセンサの画素値である第1〜第3基準画素値と、前記第1及び第3割当画素値とに基づいて、前記基準イメージセンサの前記第2光強度に対する画素値として擬制画素値を算出する算出手段と、前記対象イメージセンサのキャリブレーション後の画素値として、前記第1及び第2光強度に対して、前記第1割当画素値、及び前記擬制画素値を、それぞれ割り当てる第2割当手段と、を備えることを特徴としている。   The calibration device according to the present invention is a calibration device that unifies pixel values output from a plurality of image sensors to the same pixel value for the same light intensity in order to solve the above-described problem, Among the plurality of image sensors, an image sensor to be calibrated is a target image sensor, a representatively selected image sensor is a reference image sensor, a light intensity under dark conditions is a first light intensity, and the first light. When two light intensities higher than the intensities are set as the second and third light intensities in order of increasing light intensity, the first assigned pixel value is used as the pixel value for the first and third light intensities of the reference image sensor. , And a first assigning means for assigning a third assigned pixel value larger than the first assigned pixel value, respectively, and the reference image for the first to third light intensities. Based on the first to third reference pixel values, which are pixel values of the sensor, and the first and third assigned pixel values, a pseudo pixel value is calculated as a pixel value for the second light intensity of the reference image sensor. Calculating means; and second assigning means for assigning the first assigned pixel value and the pseudo control pixel value to the first and second light intensities as pixel values after calibration of the target image sensor, respectively. It is characterized by providing.

また、本発明に係るキャリブレーション方法は、前記課題を解決するために、複数のイメージセンサから出力される画素値を、同一の光強度に対して同一の画素値に統一するキャリブレーション方法であって、前記複数のイメージセンサのうち、キャリブレーションするイメージセンサを対象イメージセンサ、代表的に選択されたイメージセンサを基準イメージセンサとし、また、暗条件下の光強度を第1光強度、その第1光強度よりも高い2つの光強度を、光強度の低い順に第2及び第3光強度とした場合に、前記基準イメージセンサの前記第1及び第3光強度に対する画素値として、第1割当画素値、及び前記第1割当画素値よりも大きい第3割当画素値を、それぞれ割り当てる第1割当ステップと、前記第1〜第3光強度に対する前記基準イメージセンサの画素値である第1〜第3基準画素値と、前記第1及び第3割当画素値とに基づいて、前記基準イメージセンサの前記第2光強度に対する画素値として擬制画素値を算出する算出ステップと、前記対象イメージセンサのキャリブレーション後の画素値として、前記第1及び第2光強度に対して、前記第1割当画素値、及び前記擬制画素値を、それぞれ割り当てる第2割当ステップと、を含むことを特徴としている。   The calibration method according to the present invention is a calibration method for unifying pixel values output from a plurality of image sensors to the same pixel value for the same light intensity in order to solve the above-described problem. Among the plurality of image sensors, the image sensor to be calibrated is the target image sensor, the representatively selected image sensor is the reference image sensor, the light intensity under dark conditions is the first light intensity, Assuming that two light intensities higher than one light intensity are the second and third light intensities in order of increasing light intensity, the first assignment is made as a pixel value for the first and third light intensities of the reference image sensor. A first assigning step for assigning a pixel value and a third assigned pixel value larger than the first assigned pixel value, and the first to third light intensities, Based on the first to third reference pixel values, which are pixel values of the quasi-image sensor, and the first and third assigned pixel values, a pseudo pixel value as a pixel value for the second light intensity of the reference image sensor is obtained. A calculation step for calculating, and a second allocation for allocating the first allocated pixel value and the pseudo-controlled pixel value to the first and second light intensities as pixel values after calibration of the target image sensor, respectively. And a step.

上記の構成によれば、本発明に係るキャリブレーション装置では、算出手段が、第1〜第3光強度に対する基準イメージセンサの画素値である第1〜第3基準画素値と、第1割当手段によって割り当てられた第1及び第3割当画素値とに基づいて、基準イメージセンサの第2光強度に対する画素値として擬制画素値を算出する。   According to the above configuration, in the calibration device according to the present invention, the calculation means includes the first to third reference pixel values that are the pixel values of the reference image sensor for the first to third light intensities, and the first assignment means. Based on the first and third assigned pixel values assigned by, the pseudo pixel value is calculated as the pixel value for the second light intensity of the reference image sensor.

つまり、基準イメージセンサを定めることにより、その第1〜第3基準画素値と、第1及び第3割当画素値とに基づいて擬制画素値が算出されるため、対象イメージセンサとは無関係に、基準イメージセンサのみに基づいて擬制画素値を取得することができる。   That is, by determining the reference image sensor, the pseudo-pixel value is calculated based on the first to third reference pixel values and the first and third assigned pixel values, so regardless of the target image sensor, The pseudo pixel value can be acquired based only on the reference image sensor.

そして、第2割当手段が、対象イメージセンサのキャリブレーション後の画素値として、第1及び第2光強度に対して、第1割当画素値、及び擬制画素値を、それぞれ割り当てる。   Then, the second assigning unit assigns the first assigned pixel value and the pseudo control pixel value to the first and second light intensities as the pixel values after the calibration of the target image sensor.

従って、第1割当画素値は第1割当手段によって割り当てられ、擬制画素値は基準イメージセンサが定まれば算出されるため、対象イメージセンサをキャリブレーションする際に、その対象イメージセンサごとの特性を考慮する必要がない。つまり、対象イメージセンサごとにパラメータを個別に設定・変更する必要性がない。   Accordingly, the first assigned pixel value is assigned by the first assigning means, and the pseudo pixel value is calculated when the reference image sensor is determined. Therefore, when the target image sensor is calibrated, the characteristics of each target image sensor are changed. There is no need to consider. That is, there is no need to individually set / change parameters for each target image sensor.

このように、本発明に係るキャリブレーション装置及びキャリブレーション方法では、代表的に選択された基準イメージセンサに基づいて対象イメージセンサのキャリブレーションを行うため、キャリブレーションに要する時間と手間を大幅に削減しつつ、複数のイメージセンサから出力される画素値のばらつきを統一することができる。   As described above, in the calibration apparatus and the calibration method according to the present invention, the target image sensor is calibrated based on the reference image sensor that is typically selected, so that time and labor required for calibration are greatly reduced. However, variations in pixel values output from a plurality of image sensors can be unified.

本発明に係るキャリブレーション装置は、前記課題を解決するために、複数のイメージセンサから出力される画素値を、同一の光強度に対して同一の画素値に統一するキャリブレーション装置であって、前記複数のイメージセンサのうち、キャリブレーションするイメージセンサを対象イメージセンサ、代表的に選択されたイメージセンサを基準イメージセンサとし、また、暗条件下の光強度を第1光強度、その第1光強度よりも高い2つの光強度を、光強度の低い順に第2及び第3光強度とした場合に、前記第1〜第3光強度に対する前記基準イメージセンサの画素値である第1〜第3基準画素値と、前記第1及び第2光強度に対する前記対象イメージセンサの画素値である第1及び第2対象画素値とに基いて、前記第3光強度に対する前記対象イメージセンサの画素値として擬制画素値を算出する算出手段と、前記対象イメージセンサのキャリブレーション後の画素値として、前記第1及び第3光強度に対して、第1割当画素値、及び前記第1割当画素値よりも大きい第3割当画素値を設定すると共に、前記第1対象画素値を前記第1割当画素値に、前記擬制画素値を前記第3割当画素値に、それぞれ割り当てる割当手段と、を備えることを特徴としている。   The calibration device according to the present invention is a calibration device that unifies pixel values output from a plurality of image sensors to the same pixel value for the same light intensity in order to solve the above-described problem, Among the plurality of image sensors, an image sensor to be calibrated is a target image sensor, a representatively selected image sensor is a reference image sensor, a light intensity under dark conditions is a first light intensity, and the first light. When the two light intensities higher than the intensities are the second and third light intensities in order of increasing light intensity, the first to third pixel values of the reference image sensor with respect to the first to third light intensities. Based on a reference pixel value and first and second target pixel values that are pixel values of the target image sensor for the first and second light intensities, Calculating means for calculating a pseudo-pixel value as a pixel value of the target image sensor; a pixel value after calibration of the target image sensor; a first assigned pixel value with respect to the first and third light intensities; and Assigning means for setting a third assigned pixel value larger than the first assigned pixel value, assigning the first target pixel value to the first assigned pixel value, and assigning the pseudo control pixel value to the third assigned pixel value. It is characterized by providing these.

上記の構成によれば、本発明に係るキャリブレーション装置では、算出手段が、第1〜第3光強度に対する基準イメージセンサの画素値である第1〜第3基準画素値と、第1及び第2光強度に対する対象イメージセンサの画素値である第1及び第2対象画素値とに基いて、第3光強度に対する対象イメージセンサの画素値を擬制画素値として算出する。   According to the above configuration, in the calibration apparatus according to the present invention, the calculation means includes the first to third reference pixel values that are the pixel values of the reference image sensor for the first to third light intensities, and the first and third reference pixel values. Based on the first and second target pixel values that are the pixel values of the target image sensor for the two light intensities, the pixel value of the target image sensor for the third light intensity is calculated as a pseudo pixel value.

従って、擬制画素値は、対象イメージセンサの第1及び第2対象画素値を取り込んだ値として算出されるため、対象イメージセンサごとに存在する第1及び第2対象画素値のばらつきを内包しつつ算出される。つまり、対象イメージセンサごとの出力特性を包含した擬制画素値が算出される。   Therefore, since the pseudo-pixel value is calculated as a value obtained by taking in the first and second target pixel values of the target image sensor, the variation of the first and second target pixel values existing for each target image sensor is included. Calculated. That is, a pseudo pixel value including output characteristics for each target image sensor is calculated.

さらに、本発明に係るキャリブレーション装置では、割当手段が、対象イメージセンサのキャリブレーション後の画素値として、前記第1対象画素値を前記第1割当画素値に、前記擬制画素値を前記第3割当画素値に、それぞれ割り当てる。それゆえ、複数のイメージセンサから出力される画素値のばらつきを統一することができる。   Furthermore, in the calibration device according to the present invention, the assigning means uses the first target pixel value as the first assigned pixel value and the pseudo-pixel value as the third pixel value after the calibration of the target image sensor. Assign to each assigned pixel value. Therefore, variations in pixel values output from a plurality of image sensors can be unified.

加えて、本発明に係るキャリブレーション装置では、代表的なイメージセンサとして基準イメージセンサを定めるため、パラメータを対象イメージセンサごとに個別に変更する必要がなく、キャリブレーションに要する時間と手間を大幅に削減することができる。   In addition, in the calibration apparatus according to the present invention, since a reference image sensor is defined as a representative image sensor, it is not necessary to individually change parameters for each target image sensor, and the time and labor required for calibration are greatly reduced. Can be reduced.

このように、本発明に係るキャリブレーション装置では、代表的に選択された基準イメージセンサに基づいて対象イメージセンサのキャリブレーションを行うため、キャリブレーションに要する時間と手間を大幅に削減しつつ、複数のイメージセンサから出力される画素値のばらつきを統一することができる。   As described above, in the calibration apparatus according to the present invention, since the target image sensor is calibrated based on the reference image sensor that is typically selected, a plurality of times are reduced while greatly reducing the time and labor required for calibration. Variation of pixel values output from the image sensor can be unified.

本発明に係るキャリブレーション装置では、前記算出手段は、式(A)によって前記擬制画素値を算出することが好ましい。   In the calibration apparatus according to the present invention, it is preferable that the calculation means calculates the pseudo-pixel value according to equation (A).

y={x2×(Z1−y1)+z2×(y1−x1) }/(z1−x1) …(A)
ただし、
y :基準イメージセンサの擬制画素値
x1:基準イメージセンサの第1基準画素値
y1:基準イメージセンサの第2基準画素値
z1:基準イメージセンサの第3基準画素値
x2:基準イメージセンサの第1割当画素値
z2:基準イメージセンサの第3割当画素値
とする。
y = {x2 * (Z1-y1) + z2 * (y1-x1)} / (z1-x1) (A)
However,
y: pseudo pixel value of the reference image sensor x1: first reference pixel value of the reference image sensor y1: second reference pixel value of the reference image sensor z1: third reference pixel value of the reference image sensor x2: first of the reference image sensor Assigned pixel value z2: The third assigned pixel value of the reference image sensor.

つまり、本発明に係るキャリブレーション装置では、擬制画素値は、基準イメージセンサに係る第1〜第3基準画素値、及び基準イメージセンサの第1及び第3割当画素値を用いて、式(A)により算出される。   That is, in the calibration device according to the present invention, the pseudo pixel value is calculated using the first to third reference pixel values related to the reference image sensor and the first and third assigned pixel values of the reference image sensor. ).

そして、式(A)を導出する基礎式は、
(z1−y1):(y1−x1)=(z2−y):(y−x2)
により示される。
And the basic equation for deriving equation (A) is:
(Z1-y1) :( y1-x1) = (z2-y) :( y-x2)
Indicated by.

つまり、式(A)には、対象イメージセンサのパラメータは一切含まれていないため、何れのイメージセンサを対象光パネルとした場合にも、その対象イメージセンサごとの特性を考慮する必要がない。   That is, since the parameter of the target image sensor is not included in the formula (A), it is not necessary to consider the characteristics of each target image sensor when any image sensor is the target light panel.

従って、対象イメージセンサごとにパラメータを個別に設定・変更する必要がなく、キャリブレーションに要する時間と手間を大幅に削減しつつ、複数のイメージセンサから出力される画素値のばらつきを統一することができる。   Therefore, it is not necessary to individually set and change parameters for each target image sensor, and it is possible to unify variations in pixel values output from a plurality of image sensors while greatly reducing the time and labor required for calibration. it can.

本発明に係るキャリブレーション装置では、前記算出手段は、式(B)によって前記擬制画素値を算出することが好ましい。   In the calibration device according to the present invention, it is preferable that the calculation means calculates the pseudo-pixel value according to equation (B).

z={x2×(y1−Z1)+y2×(z1−x1) }/(y1−x1) …(B)
ただし、
z :対象イメージセンサの擬制画素値
x1:基準イメージセンサの第1基準画素値
y1:基準イメージセンサの第2基準画素値
z1:基準イメージセンサの第3基準画素値
x2:対象イメージセンサの第1対象画素値
y2:対象イメージセンサの第2対象画素値
とする。
z = {x2 * (y1-Z1) + y2 * (z1-x1)} / (y1-x1) (B)
However,
z: pseudo control pixel value of target image sensor x1: first reference pixel value of reference image sensor y1: second reference pixel value of reference image sensor z1: third reference pixel value of reference image sensor x2: first of target image sensor Target pixel value y2: The second target pixel value of the target image sensor.

つまり、本発明に係るキャリブレーション装置では、擬制画素値は、基準イメージセンサに係る第1〜第3基準画素値、及び対象イメージセンサの第1及び第2対象画素値を用いて、式(B)により算出される。   That is, in the calibration device according to the present invention, the pseudo pixel value is expressed by the formula (B) using the first to third reference pixel values related to the reference image sensor and the first and second target pixel values of the target image sensor. ).

そして、式(B)を導出する基礎式は、
(z1−y1):(y1−x1)=(z−y2):(y2−x2)
により示される。
And the basic equation for deriving equation (B) is:
(Z1-y1) :( y1-x1) = (z-y2) :( y2-x2)
Indicated by.

それゆえ、本発明に係るキャリブレーション装置は、対象イメージセンサごとに存在する第1及び第2対象画素値のばらつきを内包した擬制画素値を算出することができ、その擬制画素値に基づいて、対象イメージセンサのキャリブレーションをすることができる。   Therefore, the calibration device according to the present invention can calculate a pseudo pixel value including variation of the first and second target pixel values existing for each target image sensor, and based on the pseudo pixel value, The target image sensor can be calibrated.

本発明に係るキャリブレーション装置では、イメージセンサに入射する光の強度と、その光の強度に対してイメージセンサから出力される画素値との関係を示した平均出力特性曲線において、光の強度の変化に対して画素値が相関性をもって変化する光強度域と、それよりも高い光強度域との境となる光強度を飽和光強度とした場合に、前記第3光強度は、前記基準イメージセンサの飽和光強度であることが好ましい。   In the calibration apparatus according to the present invention, in the average output characteristic curve showing the relationship between the intensity of light incident on the image sensor and the pixel value output from the image sensor with respect to the intensity of the light, When the light intensity that is the boundary between the light intensity region in which the pixel value changes correlating with the change and the light intensity region higher than that is the saturated light intensity, the third light intensity is the reference image. The saturation light intensity of the sensor is preferable.

基準イメージセンサの飽和光強度を第3光強度とすることにより、基準イメージセンサの平均出力特性曲線の線形域における最も暗い光強度(第1光強度)から最も明るい光強度(第3光強度)までをキャリブレーションの対象光強度域とすることができる。それゆえ、より広い光強度域でのキャリブレーションが可能となり、さらに好適なキャリブレーション装置をユーザに提供することができる。   By setting the saturation light intensity of the reference image sensor to the third light intensity, the darkest light intensity (first light intensity) to the brightest light intensity (third light intensity) in the linear region of the average output characteristic curve of the reference image sensor. Can be set as the calibration target light intensity range. Therefore, calibration in a wider light intensity range is possible, and a more suitable calibration device can be provided to the user.

なお、代表的に選択された基準イメージセンサが、複数のイメージセンサのうち最も感度が高いイメージセンサである場合には、基準イメージセンサよりも感度が悪いイメージセンサ、つまり基準イメージセンサを除く全てのイメージセンサに対して正確にキャリブレーションを行うことができる。また、基準イメージセンサ自身もキャリブレーションの対象とすることができる。その結果、イメージセンサの製造に際して格段に歩留まりを改善することができる。   In addition, when the reference image sensor selected representatively is the image sensor having the highest sensitivity among the plurality of image sensors, all the image sensors except the reference image sensor, that is, the reference image sensor, are not sensitive. Calibration can be accurately performed on the image sensor. In addition, the reference image sensor itself can be a calibration target. As a result, the yield can be remarkably improved when manufacturing the image sensor.

但し、すべてのイメージセンサの中から最も感度が高いイメージセンサを抽出することは現実的には困難な場合がある。従って、そのような場合には、より感度が高いイメージセンサを抽出して、そのイメージセンサを基準イメージセンサとすることが好ましい。それにより、イメージセンサの製造に際して、歩留まりを改善することができる。   However, it may be difficult in practice to extract the image sensor having the highest sensitivity from all the image sensors. Therefore, in such a case, it is preferable to extract an image sensor with higher sensitivity and use the image sensor as a reference image sensor. Thereby, the yield can be improved when manufacturing the image sensor.

本発明に係るキャリブレーション装置では、第1及び第3割当画素値はそれぞれ、任意に決定されることが好ましい。   In the calibration device according to the present invention, it is preferable that the first and third assigned pixel values are arbitrarily determined.

第1及び第3割当画素値を任意に決めることができるため、イメージセンサの使用状況に応じてその範囲を決めることができ、ユーザは、使用状況・使用目的等に応じた柔軟なキャリブレーションを行える。   Since the first and third assigned pixel values can be arbitrarily determined, the range can be determined according to the use state of the image sensor, and the user can perform flexible calibration according to the use state and purpose of use. Yes.

なお、前記キャリブレーション装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記各手段として動作させることにより上記キャリブレーション装置をコンピュータにて実現させるキャリブレーションプログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も本発明の範疇に入る。   The calibration apparatus may be realized by a computer. In this case, a calibration program that causes the calibration apparatus to be realized by a computer by operating the computer as each of the above-described means, and a program recorded therein Computer-readable recording media are also within the scope of the present invention.

また、本発明に係るキャリブレーション装置を画像入力装置に適用することも可能である。   The calibration apparatus according to the present invention can also be applied to an image input apparatus.

本発明に係るキャリブレーション装置は、以上のように、前記基準イメージセンサの前記第1及び第3光強度に対する画素値として、第1割当画素値、及び前記第1割当画素値よりも大きい第3割当画素値を、それぞれ割り当てる第1割当手段と、前記第1〜第3光強度に対する前記基準イメージセンサの画素値である第1〜第3基準画素値と、前記第1及び第3割当画素値とに基づいて、前記基準イメージセンサの前記第2光強度に対する画素値として擬制画素値を算出する算出手段と、前記対象イメージセンサのキャリブレーション後の画素値として、前記第1及び第2光強度に対して、前記第1割当画素値、及び前記擬制画素値を、それぞれ割り当てる第2割当手段と、を備える。   As described above, the calibration device according to the present invention provides the first assigned pixel value and the third assigned pixel value larger than the first assigned pixel value as the pixel values for the first and third light intensities of the reference image sensor. A first allocating unit for allocating allocated pixel values; first to third reference pixel values that are pixel values of the reference image sensor for the first to third light intensities; and the first and third allocated pixel values. And calculating means for calculating a pseudo pixel value as a pixel value for the second light intensity of the reference image sensor, and the first and second light intensities as pixel values after calibration of the target image sensor. On the other hand, a second assigning means for assigning the first assigned pixel value and the pseudo control pixel value, respectively.

また、 本発明に係るキャリブレーション装置は、以上のように、前記第1〜第3光強度に対する前記基準イメージセンサの画素値である第1〜第3基準画素値と、前記第1及び第2光強度に対する前記対象イメージセンサの画素値である第1及び第2対象画素値とに基いて、前記第3光強度に対する前記対象イメージセンサの画素値として擬制画素値を算出する算出手段と、前記対象イメージセンサのキャリブレーション後の画素値として、前記第1及び第3光強度に対して、第1割当画素値、及び前記第1割当画素値よりも大きい第3割当画素値を設定すると共に、前記第1対象画素値を前記第1割当画素値に、前記擬制画素値を前記第3割当画素値に、それぞれ割り当てる割当手段と、を備える。   In addition, as described above, the calibration apparatus according to the present invention includes the first and third reference pixel values that are pixel values of the reference image sensor with respect to the first to third light intensities, and the first and second. Calculation means for calculating a pseudo pixel value as a pixel value of the target image sensor for the third light intensity based on the first and second target pixel values which are pixel values of the target image sensor for light intensity; As a pixel value after calibration of the target image sensor, a first assigned pixel value and a third assigned pixel value larger than the first assigned pixel value are set for the first and third light intensities, Allocating means for allocating the first target pixel value to the first allocated pixel value and the pseudo control pixel value to the third allocated pixel value, respectively.

また、本発明に係るキャリブレーション方法は、以上のように、前記基準イメージセンサの前記第1及び第3光強度に対する画素値として、第1割当画素値、及び前記第1割当画素値よりも大きい第3割当画素値を、それぞれ割り当てる第1割当ステップと、前記第1〜第3光強度に対する前記基準イメージセンサの画素値である第1〜第3基準画素値と、前記第1及び第3割当画素値とに基づいて、前記基準イメージセンサの前記第2光強度に対する画素値として擬制画素値を算出する算出ステップと、前記対象イメージセンサのキャリブレーション後の画素値として、前記第1及び第2光強度に対して、前記第1割当画素値、及び前記擬制画素値を、それぞれ割り当てる第2割当ステップと、を含む。   In the calibration method according to the present invention, as described above, the pixel value for the first and third light intensities of the reference image sensor is larger than the first assigned pixel value and the first assigned pixel value. A first assigning step for assigning third assigned pixel values, first to third reference pixel values which are pixel values of the reference image sensor for the first to third light intensities, and the first and third assignments. Calculating a pseudo pixel value as a pixel value for the second light intensity of the reference image sensor based on a pixel value; and the first and second pixel values after calibration of the target image sensor And a second assigning step for assigning the first assigned pixel value and the pseudo control pixel value to the light intensity, respectively.

それゆえ、本発明に係るキャリブレーション装置及びキャリブレーション方法は、複数のイメージセンサから出力される画素値のばらつきを容易に統一することができる。   Therefore, the calibration device and the calibration method according to the present invention can easily unify variations in pixel values output from a plurality of image sensors.

本実施の形態に係るキャリブレーション装置の要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the calibration apparatus which concerns on this Embodiment. センサ内蔵液晶パネルの断面を模式的に示す図である。It is a figure which shows typically the cross section of a liquid crystal panel with a built-in sensor. 図3(a)は、画像入力装置が備えるセンサ内蔵液晶パネルにて反射像を検知することにより、ユーザがタッチした位置を検出する様子を示す模式図である。図3(b)は、画像入力装置が備えるセンサ内蔵液晶パネルにて影像を検知することにより、ユーザがタッチした位置を検出する様子を示す模式図である。FIG. 3A is a schematic diagram showing a state in which a position touched by the user is detected by detecting a reflected image with a sensor built-in liquid crystal panel included in the image input apparatus. FIG. 3B is a schematic diagram illustrating a state in which a position touched by the user is detected by detecting a shadow image with a sensor built-in liquid crystal panel included in the image input apparatus. 画像入力装置が備えるセンサ内蔵液晶パネルの構成およびその周辺回路の構成を示すブロック図である。It is a block diagram which shows the structure of the liquid crystal panel with a sensor with which an image input device is provided, and the structure of its peripheral circuit. センサ内蔵液晶パネルの構成および周辺回路の構成を示すブロック図である。It is a block diagram which shows the structure of a liquid crystal panel with a built-in sensor, and the structure of a peripheral circuit. 一般的な画像入力装置における、複数の光センサ素子に入射する光強度と、当該光センサ素子から出力される平均画素値との関係を示した平均出力特性曲線を示す図である。It is a figure which shows the average output characteristic curve which showed the relationship between the light intensity which injects into a some photosensor element, and the average pixel value output from the said photosensor element in a general image input device. 複数の画像入力装置が存在する場合における、各々の平均出力特性曲線を示す図である。It is a figure which shows each average output characteristic curve in case a some image input device exists. 明光強度センサ画素値、及び暗光強度センサ画素値を説明するための図であり、(a)は、画像入力装置の明光強度センサ画素値を説明するための、(b)は、画像入力装置の暗光強度センサ画素値を説明するための図である。It is a figure for demonstrating a bright light intensity sensor pixel value and a dark light intensity sensor pixel value, (a) is a figure for demonstrating the bright light intensity sensor pixel value of an image input device, (b) is an image input device. It is a figure for demonstrating the dark light intensity sensor pixel value of. 画像入力装置の擬似センサ飽和画素値を説明するための図である。It is a figure for demonstrating the pseudo sensor saturated pixel value of an image input device. (擬似)センサ飽和画素値をTarget_Maxに、暗光強度センサ画素値をTarget_Minにそれぞれ割り当てる様子を示す図である。It is a figure which shows a mode that a (pseudo) sensor saturation pixel value is each assigned to Target_Max, and a dark light intensity sensor pixel value is assigned to Target_Min. 式(1)で示されるa〜dの関係を示す図である。It is a figure which shows the relationship of ad shown by Formula (1). キャリブレーションの動作を説明するためのフローである。It is a flow for demonstrating the operation | movement of a calibration. 式(4)で示されるa〜dの関係を示す図である。It is a figure which shows the relationship of ad shown by Formula (4). キャリブレーションの対象とする画像入力装置の明光強度センサ画素値をTarget_Midに、暗光強度センサ画素値をTarget_Minに、それぞれ割り当てる様子を示す図である。It is a figure which shows a mode that the bright light intensity sensor pixel value of the image input device made into the object of calibration is each assigned to Target_Mid, and a dark light intensity sensor pixel value is assigned to Target_Min. 本発明に係る他のキャリブレーション装置の動作を説明するためのフローである。It is a flow for demonstrating operation | movement of the other calibration apparatus which concerns on this invention.

以下、本実施の形態について、図面を参照して説明する。なお、本実施の形態に係るキャリブレーション装置50を説明するにあたり、まずキャリブレーション装置50を備えた画像入力装置100の構造について説明し、その次に、キャリブレーション装置50について説明する。
(画像入力装置100について)
キャリブレーション装置50を備えた画像入力装置100としては、例えば、画像表示および画像入力の両方の機能を持つ光センサ内蔵ディスプレイが挙げられる。以下、この光センサ内蔵ディスプレイについて図2から図5を参照して説明する。
Hereinafter, the present embodiment will be described with reference to the drawings. In describing the calibration device 50 according to the present embodiment, the structure of the image input device 100 including the calibration device 50 will be described first, and then the calibration device 50 will be described.
(About the image input device 100)
Examples of the image input device 100 including the calibration device 50 include a display with a built-in optical sensor having both functions of image display and image input. Hereinafter, the display with a built-in optical sensor will be described with reference to FIGS.

画像入力装置100は、データの表示に加え、対象物の画像検出が可能なセンサ内蔵液晶パネル301を備える。ここで、対象物の画像検出とは、例えば、ユーザが指やペンなどでポインティング(タッチ)した位置の検出や、印刷物等の画像の読み取り(スキャン)である。なお、表示に用いるデバイスは、液晶パネルに限定されるものではなく、有機EL(Electro Luminescence)パネルなどであってもよい。   The image input device 100 includes a sensor built-in liquid crystal panel 301 capable of detecting an image of an object in addition to displaying data. Here, the image detection of the object is, for example, detection of a position pointed (touched) by the user with a finger or a pen, or reading (scanning) of an image of a printed material or the like. The device used for display is not limited to a liquid crystal panel, and may be an organic EL (Electro Luminescence) panel or the like.

図2を参照しながら、センサ内蔵液晶パネル301の構造について説明する。図2は、センサ内蔵液晶パネル301の断面を模式的に示す図である。なお、ここで説明するセンサ内蔵液晶パネル301は一例であり、表示面と読取面とが共用されているものであれば、任意の構造のものが利用できる。   The structure of the sensor built-in liquid crystal panel 301 will be described with reference to FIG. FIG. 2 is a diagram schematically showing a cross section of the sensor built-in liquid crystal panel 301. The sensor built-in liquid crystal panel 301 described here is an example, and any structure can be used as long as the display surface and the reading surface are shared.

図示のとおり、センサ内蔵液晶パネル301は、背面側に配置されるアクティブマトリクス基板51Aと、表面側に配置される対向基板51Bとを備え、これら基板の間に液晶層52を挟持した構造を有している。アクティブマトリクス基板51Aには、画素電極56、データ信号線57、光センサ回路32(図示せず)、配向膜58、偏光板59などが設けられる。対向基板51Bには、カラーフィルタ53r(赤)、53g(緑)、53b(青)、遮光膜54、対向電極55、配向膜58、偏光板59などが設けられる。また、センサ内蔵液晶パネル301の背面には、バックライト307が設けられている。   As shown in the figure, the sensor built-in liquid crystal panel 301 includes an active matrix substrate 51A disposed on the back surface side and a counter substrate 51B disposed on the front surface side, and has a structure in which a liquid crystal layer 52 is sandwiched between these substrates. is doing. The active matrix substrate 51A is provided with a pixel electrode 56, a data signal line 57, an optical sensor circuit 32 (not shown), an alignment film 58, a polarizing plate 59, and the like. The counter substrate 51B is provided with color filters 53r (red), 53g (green), 53b (blue), a light shielding film 54, a counter electrode 55, an alignment film 58, a polarizing plate 59, and the like. In addition, a backlight 307 is provided on the back surface of the sensor built-in liquid crystal panel 301.

なお、センサ内蔵液晶パネル301をCGシリコン液晶(連続粒界結晶シリコン液晶)で構成する場合、光センサ回路32の光センサ素子6は青色光の受光感度が高い。したがって、光センサ素子6は、青のカラーフィルタ53bを設けた画素電極56の近傍に設けている。しかしながら、光センサ素子6は、他の色のサブピクセル上に配置してもよいし、すべてのサブピクセル上に配置することで、表示解像度よりも撮像解像度を高くしてもよい。   When the sensor built-in liquid crystal panel 301 is formed of CG silicon liquid crystal (continuous grain boundary crystal silicon liquid crystal), the photosensor element 6 of the photosensor circuit 32 has high blue light receiving sensitivity. Therefore, the photosensor element 6 is provided in the vicinity of the pixel electrode 56 provided with the blue color filter 53b. However, the optical sensor element 6 may be arranged on sub-pixels of other colors, or may be arranged on all sub-pixels so that the imaging resolution is higher than the display resolution.

次に、図3(a)および図3(b)を参照しながら、ユーザが、指やペンで、センサ内蔵液晶パネル301上をタッチした位置を検出する2種類の方法について説明する。   Next, with reference to FIGS. 3A and 3B, two types of methods for detecting the position where the user touches the sensor built-in liquid crystal panel 301 with a finger or a pen will be described.

図3(a)は、反射像を検知することにより、ユーザがタッチした位置を検出する様子を示す模式図である。バックライト307から光63が出射されると、光センサ素子6を含む光センサ回路32は、指などの対象物64により反射された光63を検知する。これにより、対象物64の反射像を検知することができる。このように、センサ内蔵液晶パネル301は、反射像を検知することにより、タッチした位置を検出することができる。   FIG. 3A is a schematic diagram illustrating a state in which a position touched by the user is detected by detecting a reflected image. When the light 63 is emitted from the backlight 307, the optical sensor circuit 32 including the optical sensor element 6 detects the light 63 reflected by the object 64 such as a finger. Thereby, the reflected image of the target object 64 can be detected. Thus, the sensor built-in liquid crystal panel 301 can detect the touched position by detecting the reflected image.

また、図3(b)は、影像を検知することにより、ユーザがタッチした位置を検出する様子を示す模式図である。図3(b)に示すように、光センサ素子6を含む光センサ回路32は、対向基板51Bなどを透過した外光61を検知する。しかしながら、ペンなどの対象物62がある場合は、外光61の入射が妨げられるので、光センサ回路32が検知する光量が減る。これにより、対象物62の影像を検知することができる。このように、センサ内蔵液晶パネル301は、影像を検知することにより、タッチした位置を検出することもできる。   FIG. 3B is a schematic diagram illustrating a state in which a position touched by the user is detected by detecting a shadow image. As shown in FIG. 3B, the optical sensor circuit 32 including the optical sensor element 6 detects external light 61 transmitted through the counter substrate 51B and the like. However, when there is an object 62 such as a pen, the incident of the external light 61 is hindered, so that the amount of light detected by the optical sensor circuit 32 is reduced. Thereby, a shadow image of the object 62 can be detected. Thus, the sensor built-in liquid crystal panel 301 can also detect a touched position by detecting a shadow image.

上述のように、光センサ素子6は、バックライト307より出射された光の反射光(影像)を検知してもよいし、外光による影像を検知してもよい。また、上記2種類の検知方法を併用して、影像と反射像とを両方を同時に検知するようにしてもよい。   As described above, the optical sensor element 6 may detect reflected light (shadow image) of the light emitted from the backlight 307, or may detect a shadow image caused by external light. Further, the two types of detection methods may be used in combination to detect both a shadow image and a reflected image at the same time.

次に、図4を参照しながら、上記画像入力装置100の要部構成について説明する。図4は、画像入力装置100の要部構成を示すブロック図である。図示のように、画像入力装置100は、1または複数の表示/光センサ部300、回路制御部600、データ処理部700、主制御部800、記憶部901、一次記憶部902、操作部903、外部通信部907、音声出力部908、および音声入力部909を備えている。ここでは、画像入力装置100は、表示/光センサ部300を2つ(第1表示/光センサ部300Aおよび第2表示/光センサ部300B)備えているものとして説明する。なお、第1表示/光センサ部300Aおよび第2表示/光センサ部300Bを区別しないときは、表示/光センサ部300と表記する。   Next, the configuration of the main part of the image input apparatus 100 will be described with reference to FIG. FIG. 4 is a block diagram illustrating a main configuration of the image input apparatus 100. As illustrated, the image input device 100 includes one or more display / light sensor units 300, a circuit control unit 600, a data processing unit 700, a main control unit 800, a storage unit 901, a primary storage unit 902, an operation unit 903, An external communication unit 907, an audio output unit 908, and an audio input unit 909 are provided. Here, the image input apparatus 100 will be described as including two display / light sensor units 300 (first display / light sensor unit 300A and second display / light sensor unit 300B). When the first display / light sensor unit 300A and the second display / light sensor unit 300B are not distinguished, they are referred to as the display / light sensor unit 300.

表示/光センサ部300は、いわゆる光センサ内蔵液晶表示装置である。表示/光センサ部300は、センサ内蔵液晶パネル301、バックライト307、それらを駆動するための周辺回路309を含んで構成される。   The display / light sensor unit 300 is a so-called liquid crystal display device with a built-in light sensor. The display / light sensor unit 300 includes a sensor built-in liquid crystal panel 301, a backlight 307, and a peripheral circuit 309 for driving them.

センサ内蔵液晶パネル301は、マトリクス状に配置された複数の画素回路31および光センサ回路32を含んで構成される。センサ内蔵液晶パネル301の詳細な構成については後述する。   The sensor built-in liquid crystal panel 301 includes a plurality of pixel circuits 31 and photosensor circuits 32 arranged in a matrix. The detailed configuration of the sensor built-in liquid crystal panel 301 will be described later.

周辺回路309は、液晶パネル駆動回路304、光センサ駆動回路305、信号変換回路306、バックライト駆動回路308を含む。   The peripheral circuit 309 includes a liquid crystal panel drive circuit 304, an optical sensor drive circuit 305, a signal conversion circuit 306, and a backlight drive circuit 308.

液晶パネル駆動回路304は、回路制御部600の表示制御部601からのタイミング制御信号(TC1)およびデータ信号(D)に従って、制御信号(G)およびデータ信号(S)を出力し、画素回路31を駆動する回路である。画素回路31の駆動方法の詳細については後述する。   The liquid crystal panel driving circuit 304 outputs a control signal (G) and a data signal (S) in accordance with the timing control signal (TC1) and the data signal (D) from the display control unit 601 of the circuit control unit 600, and the pixel circuit 31. It is a circuit which drives. Details of the driving method of the pixel circuit 31 will be described later.

光センサ駆動回路305は、回路制御部600のセンサ制御部602からのタイミング制御信号(TC2)に従って、信号線(R)に電圧を印加し、光センサ回路32を駆動する回路である。光センサ回路32の駆動方法の詳細については後述する。   The optical sensor driving circuit 305 is a circuit that drives the optical sensor circuit 32 by applying a voltage to the signal line (R) in accordance with a timing control signal (TC2) from the sensor control unit 602 of the circuit control unit 600. Details of the driving method of the optical sensor circuit 32 will be described later.

信号変換回路306は、光センサ回路32から出力されるセンサ出力信号(SS)をデジタル信号(DS)に変換し、該変換後の信号をセンサ制御部602に送信する回路である。   The signal conversion circuit 306 is a circuit that converts the sensor output signal (SS) output from the optical sensor circuit 32 into a digital signal (DS) and transmits the converted signal to the sensor control unit 602.

バックライト307は、複数の白色LED(Light Emitting Diode)を含んでおり、センサ内蔵液晶パネル301の背面に配置される。そして、バックライト駆動回路308から電源電圧が印加されると、バックライト307は点灯し、センサ内蔵液晶パネル301に光を照射する。なお、バックライト307は、白色LEDに限らず、他の色のLEDを含んでいてもよい。また、バックライト307は、LEDに代えて、例えば、冷陰極管(CCFL:Cold Cathode Fluorescent Lamp)を含むものであってもよい。   The backlight 307 includes a plurality of white LEDs (Light Emitting Diodes) and is disposed on the back surface of the sensor built-in liquid crystal panel 301. When a power supply voltage is applied from the backlight drive circuit 308, the backlight 307 is turned on and irradiates the sensor built-in liquid crystal panel 301 with light. Note that the backlight 307 is not limited to white LEDs, and may include LEDs of other colors. The backlight 307 may include, for example, a cold cathode fluorescent lamp (CCFL) instead of the LED.

バックライト駆動回路308は、回路制御部600のバックライト制御部603からの制御信号(BK)がハイレベルであるときは、バックライト307に電源電圧を印加し、逆に、バックライト制御部603からの制御信号がローレベルであるときは、バックライト307に電源電圧を印加しない。   The backlight driving circuit 308 applies a power supply voltage to the backlight 307 when the control signal (BK) from the backlight control unit 603 of the circuit control unit 600 is at a high level, and conversely, the backlight control unit 603. When the control signal from is at a low level, no power supply voltage is applied to the backlight 307.

次に、回路制御部600について説明する。回路制御部600は、表示/光センサ部300の周辺回路309を制御するデバイスドライバとしての機能を備えるものである。回路制御部600は、表示制御部601、センサ制御部602、バックライト制御部603、および表示データ記憶部604を備えている。   Next, the circuit control unit 600 will be described. The circuit control unit 600 has a function as a device driver that controls the peripheral circuit 309 of the display / light sensor unit 300. The circuit control unit 600 includes a display control unit 601, a sensor control unit 602, a backlight control unit 603, and a display data storage unit 604.

表示制御部601は、データ処理部700の表示データ処理部701から表示データを受信するとともに、表示データ処理部701からの指示に従って、表示/光センサ部300の液晶パネル駆動回路304に、タイミング制御信号(TC1)およびデータ信号(D)を送信し、上記受信した表示データをセンサ内蔵液晶パネル301に表示させる。   The display control unit 601 receives display data from the display data processing unit 701 of the data processing unit 700, and performs timing control on the liquid crystal panel driving circuit 304 of the display / light sensor unit 300 in accordance with an instruction from the display data processing unit 701. A signal (TC1) and a data signal (D) are transmitted, and the received display data is displayed on the sensor built-in liquid crystal panel 301.

なお、表示制御部601は、表示データ処理部701から受信した表示データを、表示データ記憶部604に一次記憶させる。そして、当該一次記憶させた表示データに基づいて、データ信号(D)を生成する。表示データ記憶部604は、例えば、VRAM(video random access memory)などである。   The display control unit 601 temporarily stores the display data received from the display data processing unit 701 in the display data storage unit 604. Then, a data signal (D) is generated based on the primary stored display data. The display data storage unit 604 is, for example, a video random access memory (VRAM).

センサ制御部602は、データ処理部700のセンサデータ処理部703からの指示に従って、表示/光センサ部300の光センサ駆動回路305に、タイミング制御信号(TC2)を送信し、センサ内蔵液晶パネル301にてスキャンを実行させる。   The sensor control unit 602 transmits a timing control signal (TC2) to the optical sensor driving circuit 305 of the display / optical sensor unit 300 in accordance with an instruction from the sensor data processing unit 703 of the data processing unit 700, and the sensor built-in liquid crystal panel 301. Run the scan with.

また、センサ制御部602は、信号変換回路306からデジタル信号(DS)を受信する。そして、センサ内蔵液晶パネル301に含まれる全ての光センサ回路32から出力されたセンサ出力信号(SS)に対応するデジタル信号(DS)に基づいて、画像データを生成する。つまり、センサ内蔵液晶パネル301の読み取り領域全体で読み取った画像データを生成する。そして、該生成した画像データをセンサデータ処理部703に送信する。   In addition, the sensor control unit 602 receives a digital signal (DS) from the signal conversion circuit 306. Then, image data is generated based on the digital signal (DS) corresponding to the sensor output signal (SS) output from all the optical sensor circuits 32 included in the sensor built-in liquid crystal panel 301. That is, the image data read in the entire reading area of the sensor built-in liquid crystal panel 301 is generated. Then, the generated image data is transmitted to the sensor data processing unit 703.

バックライト制御部603は、表示データ処理部701およびセンサデータ処理部703からの指示に従って、表示/光センサ部300のバックライト駆動回路308に制御信号(BK)を送信し、バックライト307を駆動させる。   The backlight control unit 603 transmits a control signal (BK) to the backlight drive circuit 308 of the display / light sensor unit 300 in accordance with instructions from the display data processing unit 701 and the sensor data processing unit 703 to drive the backlight 307. Let

なお、画像入力装置100が、複数の表示/光センサ部300を備える場合、表示制御部601は、データ処理部700から、どの表示/光センサ部300にて表示データを表示するかの指示を受けたとき、当該指示に応じた表示/光センサ部300の液晶パネル駆動回路304を制御する。また、センサ制御部602は、データ処理部700から、どの表示/光センサ部300にて対象物のスキャンを行なうかの指示を受けたとき、当該指示に応じた表示/光センサ部300の光センサ駆動回路305を制御するとともに、当該指示に応じた表示/光センサ部300の信号変換回路306からデジタル信号(DS)を受信する。   When the image input apparatus 100 includes a plurality of display / light sensor units 300, the display control unit 601 instructs the display / light sensor unit 300 to display the display data from the data processing unit 700. When received, the liquid crystal panel drive circuit 304 of the display / light sensor unit 300 is controlled according to the instruction. When the sensor control unit 602 receives an instruction from the data processing unit 700 as to which display / light sensor unit 300 is to scan the object, The sensor drive circuit 305 is controlled and a digital signal (DS) is received from the signal conversion circuit 306 of the display / light sensor unit 300 according to the instruction.

次に、データ処理部700について説明する。データ処理部700は、主制御部800から受信するコマンドに基づいて、回路制御部600に指示を与えるミドルウェアとしての機能を備えるものである。   Next, the data processing unit 700 will be described. The data processing unit 700 has a function as middleware that gives an instruction to the circuit control unit 600 based on a command received from the main control unit 800.

データ処理部700は、表示データ処理部701およびセンサデータ処理部703を備えている。そして、データ処理部700が、主制御部800からコマンドを受信すると、該受信したコマンドに含まれる各フィールドの値に応じて、表示データ処理部701およびセンサデータ処理部703の少なくとも一方が動作する。   The data processing unit 700 includes a display data processing unit 701 and a sensor data processing unit 703. When the data processing unit 700 receives a command from the main control unit 800, at least one of the display data processing unit 701 and the sensor data processing unit 703 operates according to the value of each field included in the received command. .

表示データ処理部701は、主制御部800から表示データを受信するとともに、データ処理部700が受信したコマンドに従って、表示制御部601およびバックライト制御部603に指示を与え、上記受信した表示データをセンサ内蔵液晶パネル301に表示させる。なお、コマンドに応じた、表示データ処理部701の動作については、後述する。   The display data processing unit 701 receives display data from the main control unit 800, and gives instructions to the display control unit 601 and the backlight control unit 603 according to the command received by the data processing unit 700, and displays the received display data. The image is displayed on the sensor built-in liquid crystal panel 301. The operation of the display data processing unit 701 according to the command will be described later.

センサデータ処理部703は、データ処理部700が受信したコマンドに従って、センサ制御部602およびバックライト制御部603に指示を与える。   The sensor data processing unit 703 gives an instruction to the sensor control unit 602 and the backlight control unit 603 according to the command received by the data processing unit 700.

また、センサデータ処理部703は、センサ制御部602から画像データを受信し、当該画像データをそのまま画像データバッファ704に格納する。   The sensor data processing unit 703 receives image data from the sensor control unit 602 and stores the image data in the image data buffer 704 as it is.

次に、主制御部800は、アプリケーションプログラムを実行するものである。主制御部800は、記憶部901に格納されているプログラムを、例えばRAM(Random Access Memory)等で構成される一次記憶部902に読み出して実行する。   Next, the main control unit 800 executes an application program. The main control unit 800 reads the program stored in the storage unit 901 into a primary storage unit 902 configured by, for example, a RAM (Random Access Memory) and executes the program.

主制御部800で実行されるアプリケーションプログラムは、センサ内蔵液晶パネル301に表示データを表示させたり、センサ内蔵液晶パネル301にて対象物のスキャンを行わせるために、データ処理部700に対して、コマンドおよび表示データを送信する。また、コマンドに「データ種別」を指定した場合は、当該コマンドの応答として、全体画像データ、部分画像データ、および座標データの少なくともいずれか1つを、データ処理部700から受信する。   An application program executed by the main control unit 800 causes the data processing unit 700 to display display data on the sensor built-in liquid crystal panel 301 or to scan an object on the sensor built-in liquid crystal panel 301. Send commands and display data. When “data type” is designated as a command, at least one of whole image data, partial image data, and coordinate data is received from the data processing unit 700 as a response to the command.

なお、回路制御部600、データ処理部700、および主制御部800は、それぞれ、CPU(Central Processing Unit)およびメモリ等で構成することができる。また、データ処理部700は、ASIC(application specific integrate circuit)などの回路で構成されていてもよい。   The circuit control unit 600, the data processing unit 700, and the main control unit 800 can be configured by a CPU (Central Processing Unit), a memory, and the like, respectively. The data processing unit 700 may be configured by a circuit such as an ASIC (application specific integrate circuit).

次に、記憶部901は、図示のように、主制御部800が実行するプログラムおよびデータを格納するものである。なお、主制御部800が実行するプログラムは、アプリケーション固有のプログラムと、各アプリケーションが共用可能な汎用プログラムとに分離されていてもよい。   Next, the storage unit 901 stores programs and data executed by the main control unit 800 as shown in the figure. The program executed by the main control unit 800 may be separated into an application-specific program and a general-purpose program that can be shared by each application.

次に、操作部903は、画像入力装置100のユーザの入力操作を受けつけるものである。操作部903は、例えば、スイッチ、リモコン、マウス、キーボードなどの入力デバイスで構成される。そして、操作部903は、画像入力装置100のユーザの入力操作に応じた制御信号を生成し、該生成した制御信号を主制御部800へ送信する。   Next, the operation unit 903 receives an input operation of the user of the image input apparatus 100. The operation unit 903 includes input devices such as a switch, a remote controller, a mouse, and a keyboard, for example. Then, the operation unit 903 generates a control signal corresponding to the input operation of the user of the image input apparatus 100 and transmits the generated control signal to the main control unit 800.

その他、画像入力装置100は、無線/有線通信によって外部装置と通信を行なうための外部通信部907、音声を出力するためのスピーカ等の音声出力部908、音声信号を入力するためのマイク等の音声入力部909などを適宜備えていてもよい。
(センサ内蔵液晶パネルの構成)
次に、図5を参照しながら、センサ内蔵液晶パネル301の構成、および、センサ内蔵液晶パネル301の周辺回路309の構成について説明する。図5は、表示/光センサ部300の要部、特に、センサ内蔵液晶パネル301の構成および周辺回路309の構成を示すブロック図である。
In addition, the image input device 100 includes an external communication unit 907 for communicating with an external device by wireless / wired communication, an audio output unit 908 such as a speaker for outputting audio, a microphone for inputting an audio signal, and the like. A voice input unit 909 or the like may be provided as appropriate.
(Configuration of sensor built-in liquid crystal panel)
Next, the configuration of the sensor built-in liquid crystal panel 301 and the configuration of the peripheral circuit 309 of the sensor built-in liquid crystal panel 301 will be described with reference to FIG. FIG. 5 is a block diagram showing the main part of the display / light sensor unit 300, particularly the configuration of the sensor built-in liquid crystal panel 301 and the configuration of the peripheral circuit 309.

センサ内蔵液晶パネル301は、光透過率(輝度)を設定するための画素回路31、および、自身が受光した光の強度に応じた電圧を出力する光センサ回路32を備えている。なお、画素回路31は、赤色、緑色、青色のカラーフィルタのそれぞれに対応するR画素回路31r、G画素回路31g、B画素回路31bを総称して用いる。   The sensor built-in liquid crystal panel 301 includes a pixel circuit 31 for setting light transmittance (brightness) and an optical sensor circuit 32 that outputs a voltage corresponding to the intensity of light received by the sensor. The pixel circuit 31 generically uses an R pixel circuit 31r, a G pixel circuit 31g, and a B pixel circuit 31b corresponding to the red, green, and blue color filters, respectively.

画素回路31は、センサ内蔵液晶パネル301上の列方向(縦方向)にm個、行方向(横方向)に3n個配置される。そして、R画素回路31r、G画素回路31g、およびB画素回路31bの組が、行方向(横方向)に連続して配置される。この組が1つの画素を形成する。   The pixel circuits 31 are arranged on the sensor built-in liquid crystal panel 301 in the column direction (vertical direction) and 3n in the row direction (horizontal direction). A set of the R pixel circuit 31r, the G pixel circuit 31g, and the B pixel circuit 31b is continuously arranged in the row direction (lateral direction). This set forms one pixel.

画素回路31の光透過率を設定するには、まず、画素回路31に含まれるTFT(Thin Film Transistor)33のゲート端子に接続される走査信号線Giにハイレベル電圧(TFT33をオン状態にする電圧)を印加する。その後、R画素回路31rのTFT33のソース端子に接続されているデータ信号線SRjに、所定の電圧を印加する。同様に、G画素回路31gおよびB画素回路31bについても、光透過率を設定する。そして、これらの光透過率を設定することにより、センサ内蔵液晶パネル301上に画像が表示される。   In order to set the light transmittance of the pixel circuit 31, first, the high level voltage (TFT 33 is turned on) to the scanning signal line Gi connected to the gate terminal of the TFT (Thin Film Transistor) 33 included in the pixel circuit 31. Voltage). Thereafter, a predetermined voltage is applied to the data signal line SRj connected to the source terminal of the TFT 33 of the R pixel circuit 31r. Similarly, the light transmittance is also set for the G pixel circuit 31g and the B pixel circuit 31b. Then, by setting these light transmittances, an image is displayed on the sensor built-in liquid crystal panel 301.

次に、光センサ回路32は、一画素毎に配置される。なお、R画素回路31r、G画素回路31g、およびB画素回路31bのそれぞれの近傍に1つずつ配置されてもよい。   Next, the photosensor circuit 32 is arranged for each pixel. One pixel may be arranged in the vicinity of each of the R pixel circuit 31r, the G pixel circuit 31g, and the B pixel circuit 31b.

光センサ回路32にて光の強度に応じた電圧を出力させるためには、まず、コンデンサ35の一方の電極に接続されているセンサ読み出し線RWiと、フォトダイオード36のアノード端子に接続されているセンサリセット線RSiとに所定の電圧を印加する。この状態において、フォトダイオード36に光が入射されると、入射した光量に応じた電流がフォトダイオード36に流れる。そして、当該電流に応じて、コンデンサ35の他方の電極とフォトダイオード36のカソード端子との接続点(以下、接続ノードV)の電圧が低下する。そして、センサプリアンプ37のドレイン端子に接続される電圧印加線SDjに電源電圧VDDを印加すると、接続ノードVの電圧は増幅され、センサプリアンプ37のソース端子からセンシングデータ出力線SPjに出力される。そして、当該出力された電圧に基づいて、光センサ回路32が受光した光量を算出することができる。   In order for the optical sensor circuit 32 to output a voltage corresponding to the light intensity, first, the sensor readout line RWi connected to one electrode of the capacitor 35 and the anode terminal of the photodiode 36 are connected. A predetermined voltage is applied to the sensor reset line RSi. In this state, when light is incident on the photodiode 36, a current corresponding to the amount of incident light flows through the photodiode 36. Then, according to the current, the voltage at the connection point (hereinafter referred to as connection node V) between the other electrode of the capacitor 35 and the cathode terminal of the photodiode 36 decreases. When the power supply voltage VDD is applied to the voltage application line SDj connected to the drain terminal of the sensor preamplifier 37, the voltage at the connection node V is amplified and output from the source terminal of the sensor preamplifier 37 to the sensing data output line SPj. Based on the output voltage, the amount of light received by the optical sensor circuit 32 can be calculated.

次に、センサ内蔵液晶パネル301の周辺回路である、液晶パネル駆動回路304、光センサ駆動回路305、およびセンサ出力アンプ44について説明する。   Next, the liquid crystal panel drive circuit 304, the optical sensor drive circuit 305, and the sensor output amplifier 44, which are peripheral circuits of the sensor built-in liquid crystal panel 301, will be described.

液晶パネル駆動回路304は、画素回路31を駆動するための回路であり、走査信号線駆動回路3041およびデータ信号線駆動回路3042を含んでいる。   The liquid crystal panel drive circuit 304 is a circuit for driving the pixel circuit 31, and includes a scanning signal line drive circuit 3041 and a data signal line drive circuit 3042.

走査信号線駆動回路3041は、表示制御部601から受信したタイミング制御信号TC1に基づいて、1ライン時間毎に、走査信号線G1〜Gmの中から1本の走査信号線を順次選択し、該選択した走査信号線にハイレベル電圧を印加するとともに、その他の走査信号線にローレベル電圧を印加する。   The scanning signal line driving circuit 3041 sequentially selects one scanning signal line from the scanning signal lines G1 to Gm for each line time based on the timing control signal TC1 received from the display control unit 601, and A high level voltage is applied to the selected scanning signal line, and a low level voltage is applied to the other scanning signal lines.

データ信号線駆動回路3042は、表示制御部601から受信した表示データD(DR、DG、およびDB)に基づいて、1ライン時間毎に、1行分の表示データに対応する所定の電圧を、データ信号線SR1〜SRn、SG1〜SGn、SB1〜SBnに印加する(線順次方式)。なお、データ信号線駆動回路3042は、点順次方式で駆動するものであってもよい。   Based on the display data D (DR, DG, and DB) received from the display controller 601, the data signal line driver circuit 3042 generates a predetermined voltage corresponding to the display data for one row for each line time. The data signal lines SR1 to SRn, SG1 to SGn, and SB1 to SBn are applied (line sequential method). Note that the data signal line driver circuit 3042 may be driven by a dot sequential method.

光センサ駆動回路305は、光センサ回路32を駆動するための回路である。光センサ駆動回路305は、センサ制御部602から受信したタイミング制御信号TC2に基づいて、センサ読み出し信号線RW1〜RWmの中から、1ライン時間毎に1本ずつ選択したセンサ読み出し信号線に所定の読み出し用電圧を印加するとともに、その他のセンサ読み出し信号線には、所定の読み出し用電圧以外の電圧を印加する。また、同様に、タイミング制御信号TC2に基づいて、センサリセット信号線RS1〜RSmの中から、1ライン時間毎に1本ずつ選択したセンサリセット信号線に所定のリセット用電圧を印加するとともに、その他のセンサリセット信号線には、所定のリセット用電圧以外の電圧を印加する。   The optical sensor driving circuit 305 is a circuit for driving the optical sensor circuit 32. Based on the timing control signal TC2 received from the sensor control unit 602, the optical sensor driving circuit 305 selects a predetermined sensor readout signal line from the sensor readout signal lines RW1 to RWm for each line time. A read voltage is applied, and a voltage other than a predetermined read voltage is applied to the other sensor read signal lines. Similarly, based on the timing control signal TC2, a predetermined reset voltage is applied to the sensor reset signal line selected from the sensor reset signal lines RS1 to RSm for each line time, and the others. A voltage other than a predetermined reset voltage is applied to the sensor reset signal line.

センシングデータ出力信号線SP1〜SPnはp個(pは1以上n以下の整数)のグループにまとめられ、各グループに属するセンシングデータ出力信号線は、時分割で順次オン状態になるスイッチ47を介して、センサ出力アンプ44に接続される。センサ出力アンプ44は、スイッチ47により接続されたセンシングデータ出力信号線のグループからの電圧を増幅し、センサ出力信号SS(SS1〜SSp)として、信号変換回路306へ出力する。
(キャリブレーション装置50について)
以上、図2から図5を参照して画像入力装置100の構造を説明した。次に、キャリブレーション装置50について、図1、図6〜図12を参照して説明する。なお、本実施の形態では、キャリブレーション装置50の構成、動作等を説明するうえで、幾つかの用語を使用している。そこで、説明の便宜のため、まず用語の説明を行い、その次にキャリブレーション装置50の詳細を説明する。
<平均出力特性曲線>
平均出力特性曲線について図6を参照して説明する。図6は、一般的な画像入力装置における、複数の光センサ素子(撮像素子)に入射する光強度と、当該光センサ素子から出力される平均画素値との関係を示した平均出力特性曲線を示す図である。
The sensing data output signal lines SP1 to SPn are grouped into p groups (p is an integer of 1 to n), and the sensing data output signal lines belonging to each group are connected via a switch 47 that is sequentially turned on in time division. And connected to the sensor output amplifier 44. The sensor output amplifier 44 amplifies the voltage from the group of sensing data output signal lines connected by the switch 47 and outputs the amplified voltage to the signal conversion circuit 306 as sensor output signals SS (SS1 to SSp).
(Regarding the calibration device 50)
The structure of the image input device 100 has been described above with reference to FIGS. Next, the calibration device 50 will be described with reference to FIGS. 1 and 6 to 12. In the present embodiment, some terms are used to describe the configuration and operation of the calibration device 50. Therefore, for convenience of explanation, terms are first explained, and then the details of the calibration device 50 are explained.
<Average output characteristic curve>
The average output characteristic curve will be described with reference to FIG. FIG. 6 shows an average output characteristic curve showing the relationship between the light intensity incident on a plurality of photosensor elements (imaging elements) and the average pixel value output from the photosensor elements in a general image input device. FIG.

平均出力特性曲線は、光強度の変化に対して画素値が相関性をもって変化する線形域と、それよりも高い光強度域である飽和域とを有する。なお、飽和域では、光強度が高くなるにつれ、やがて画素値が一定の値に収束する。   The average output characteristic curve has a linear region where the pixel value changes with a correlation with a change in light intensity, and a saturation region which is a light intensity region higher than that. In the saturation region, the pixel value eventually converges to a constant value as the light intensity increases.

より具体的に図6を参照して説明する。平均出力特性曲線は、暗条件下での光強度(暗光強度)Bから光強度Wまでの範囲において、光強度の変化に対して画素値が相関性をもって変化する光強度域(線形域)を有する。また、光強度Wよりも大きい光強度域では、光強度の変化に対して画素値が相関性をもって変化せず、やがて画素値が収束する領域(飽和域)を有する。つまり、平均出力特性曲線は、光強度Wを境に線形域と飽和域とに分かれる。   More specific description will be given with reference to FIG. The average output characteristic curve is a light intensity range (linear range) in which the pixel value changes with a correlation with a change in light intensity in a range from light intensity (dark light intensity) B to light intensity W under dark conditions. Have Further, in the light intensity region that is larger than the light intensity W, the pixel value does not change with a correlation with the change in the light intensity, and eventually has a region (saturation region) where the pixel value converges. That is, the average output characteristic curve is divided into a linear region and a saturation region with the light intensity W as a boundary.

本実施の形態では、線形域と飽和域との境となる光強度Wを飽和光強度と称する。つまり、飽和光強度は、平均出力特性曲線が線形性を維持できる限界の光強度といえる。なお、図6において、Vwmは飽和光強度に対する画素値を、Vsmは、飽和域における画素値の収束値を表わす。   In the present embodiment, the light intensity W that is the boundary between the linear region and the saturated region is referred to as saturated light intensity. That is, the saturation light intensity can be said to be the limit light intensity at which the average output characteristic curve can maintain linearity. In FIG. 6, Vwm represents the pixel value with respect to the saturation light intensity, and Vsm represents the convergence value of the pixel value in the saturation region.

ここで、飽和光強度Wは次のように算出される。一般的に、線形性の評価指標として、決定係数もしくはR2乗値と呼ばれるものが使われる。R2乗値はピアソンの積率相関係数Rを2乗した値であり、ピアソンの積率相関係数は、以下の〔数1〕により算出される。   Here, the saturated light intensity W is calculated as follows. Generally, a so-called coefficient of determination or R-square value is used as a linearity evaluation index. The R square value is a value obtained by squaring the Pearson product moment correlation coefficient R, and the Pearson product moment correlation coefficient is calculated by the following [Equation 1].

Figure 2010212814
Figure 2010212814

ただし、〔数1〕において、
x、y :確率変数の組
、y :x、yの標本値
、y :標本値の平均値
n :標本数
とする。
However, in [Equation 1]
x, y: set of random variables x i , y i : sample values of x and y x m , y m : average value of sample values n: number of samples

〔数1〕では、x、yの分布が完全に直線になるときR2乗値は1になる。一方、直線から外れるほどR2乗値は0に近づく。R2乗値は、このような特徴を有するために線形性の指標とされ、その値が0.99程度であれば線形性がよいと判断される。   In [Equation 1], the R-square value is 1 when the distribution of x and y is completely a straight line. On the other hand, the R-square value approaches 0 as it deviates from the straight line. Since the R-square value has such characteristics, it is used as an index of linearity. If the value is about 0.99, it is determined that the linearity is good.

飽和光強度Wの算出は、R2乗値の上記特徴を利用して算出される。具体的には、蛍光灯やLED照明等の光源の出力、あるいはその光源と画像入力装置との距離を変えていき、画像入力装置の光強度を低い側から高い側へ上げたときの、出力された画素値をプロットしたグラフから飽和光強度が割り出される。つまり、R2乗値が0.99となる画素値を割り出し、そのときの光強度を飽和光強度とする。なお、R2乗値は、必ずしも0.99である必要はなく、適宜選択してよい。
<基準画像入力装置>
次に、基準画像入力装置について説明する。最初に、基準画像入力装置を説明するために、画像入力装置100が複数存在する場合における、各々の平均出力特性曲線を図7に示す。図7では、画像入力装置100が3基(画像入力装置100a〜100c)存在し、その画像入力装置100a〜100cがそれぞれ、平均出力特性曲線101a〜101cを有する例を示す。
The saturated light intensity W is calculated using the above characteristic of the R square value. Specifically, the output of a light source such as a fluorescent lamp or LED illumination, or the output when the distance between the light source and the image input device is changed and the light intensity of the image input device is increased from the low side to the high side. The saturated light intensity is determined from the graph in which the pixel values are plotted. That is, a pixel value having an R square value of 0.99 is determined, and the light intensity at that time is set as the saturated light intensity. The R-square value is not necessarily 0.99, and may be selected as appropriate.
<Reference image input device>
Next, the reference image input device will be described. First, in order to describe the reference image input device, each average output characteristic curve when there are a plurality of image input devices 100 is shown in FIG. FIG. 7 shows an example in which there are three image input devices 100 (image input devices 100a to 100c), and the image input devices 100a to 100c have average output characteristic curves 101a to 101c, respectively.

本実施例では、代表的な画像入力装置を基準画像入力装置(基準イメージセンサ)と称する。ここでいう「代表的な」とは、複数の画像入力装置から任意に抽出された画像入力装置がキャリブレーションを行う際の基準(代表)となる、という意味であって、特に何らかの基準に基づいて代表的な画像入力装置が決定されるというわけではない。従って、本実施の形態では、画像入力装置100a〜100cのうち、何れの画像入力装置を基準画像入力装置としてもよい。   In this embodiment, a typical image input device is referred to as a reference image input device (reference image sensor). Here, “representative” means that an image input device arbitrarily extracted from a plurality of image input devices serves as a reference (representative) when performing calibration, and is based on some criteria in particular. Thus, a representative image input device is not determined. Therefore, in the present embodiment, any one of the image input devices 100a to 100c may be used as the reference image input device.

そこで、説明の便宜上、本実施の形態では、画像入力装置100a〜100cのうち、画像入力装置100aを代表的に選択し、画像入力装置100aが基準画像入力装置であるものとして説明する。もちろん、画像入力装置100b、100cが基準画像入力装置としても問題ない。   Therefore, for convenience of explanation, in the present embodiment, the image input device 100a is representatively selected from the image input devices 100a to 100c, and the image input device 100a is assumed to be a reference image input device. Of course, there is no problem even if the image input devices 100b and 100c are the reference image input devices.

なお、代表的な画像入力装置として任意に抽出された画像入力装置100aには、図7に示すように、次のような特性が見られる。具体的には、画像入力装置100aは、平均出力特性曲線101a〜101cに基づいて取得される飽和光強度をその順番にWa〜Wcとした場合に、画像入力装置100aに係る飽和光強度Waが最も低い。そして、飽和光強度Wa〜Wcに対応する画素値をそれぞれVwa〜Vwcとした場合に、飽和光強度Wa〜Wcの順に画素値Vwa〜Vwcが高い。従って、飽和光強度Wa〜Wcに対応する画像入力装置100a〜100cの順に、その平均出力特性曲線101a〜101cに係る線形域の傾きが大きくなる。このことは、画像入力装置100a〜100cの順にイメージセンサの感度が高いことを表す。   As shown in FIG. 7, the following characteristics are observed in the image input device 100a arbitrarily extracted as a typical image input device. Specifically, when the saturated light intensity acquired based on the average output characteristic curves 101a to 101c is set to Wa to Wc in that order, the image input apparatus 100a has the saturated light intensity Wa related to the image input apparatus 100a. Lowest. When the pixel values corresponding to the saturated light intensities Wa to Wc are Vwa to Vwc, respectively, the pixel values Vwa to Vwc are higher in the order of the saturated light intensities Wa to Wc. Therefore, the gradient of the linear region related to the average output characteristic curves 101a to 101c increases in the order of the image input devices 100a to 100c corresponding to the saturated light intensities Wa to Wc. This indicates that the sensitivity of the image sensor is higher in the order of the image input devices 100a to 100c.

ここで、画像入力装置100の数量は、必ずしも3基に限られず、2基であっても、4基以上であってもよい。但し、本実施の形態では、画像入力装置の数量は3基(画像入力装置100a〜100c)であるものとして以降の説明を行う。
<明光強度センサ画素値、暗光強度センサ画素値>
次に、明光強度センサ画素値、及び暗光強度センサ画素値について図8を参照して説明する。図8(a)は、画像入力装置100の明光強度センサ画素値を説明するための図であり、図8(b)は、画像入力装置100の暗光強度センサ画素値を説明するための図である。
Here, the number of the image input devices 100 is not necessarily limited to three, and may be two or four or more. However, in the present embodiment, the following description will be given on the assumption that the number of image input devices is three (image input devices 100a to 100c).
<Bright light intensity sensor pixel value, dark light intensity sensor pixel value>
Next, the bright light intensity sensor pixel value and the dark light intensity sensor pixel value will be described with reference to FIG. FIG. 8A is a diagram for explaining the bright light intensity sensor pixel value of the image input device 100, and FIG. 8B is a diagram for explaining the dark light intensity sensor pixel value of the image input device 100. It is.

図8(a)に示すように、一定の明るさの光を照射することが可能な箱を画像入力装置100に被せる。そして、本実施の形態では、その状態で出力されたセンサ画素値の平均値を、画像入力装置100の明光強度センサ画素値と称する。なお、このときの光強度を明光強度(第2光強度)と呼ぶ。   As shown in FIG. 8A, a box capable of irradiating light with a certain brightness is put on the image input apparatus 100. In this embodiment, the average value of the sensor pixel values output in this state is referred to as the bright light intensity sensor pixel value of the image input device 100. The light intensity at this time is referred to as bright light intensity (second light intensity).

同様に、図8(b)に示すように、暗室と同条件となる暗さを実現することが可能な箱を画像入力装置100に被せる。そして、本実施の形態では、その状態で出力されたセンサ画素値の平均値を、画像入力装置100の暗光強度センサ画素値と称する。なお、このときの光強度を暗光強度(第1光強度)と呼ぶ。   Similarly, as shown in FIG. 8B, the image input apparatus 100 is covered with a box capable of realizing the darkness that is the same condition as the dark room. In this embodiment, the average value of the sensor pixel values output in this state is referred to as the dark light intensity sensor pixel value of the image input device 100. The light intensity at this time is referred to as dark light intensity (first light intensity).

なお、ここでいう平均値とは、画像入力装置100に係る複数の光センサ素子(イメージセンサを構成する複数の撮像素子)が出力する画素値の平均値を表す。
<擬似センサ飽和画素値>
続いて、擬似センサ飽和画素値(擬制画素値)について図9を参照して説明する。図9は、画像入力装置100の擬似センサ飽和画素値を説明するための図である。
The average value referred to here represents an average value of pixel values output by a plurality of photosensor elements (a plurality of image sensors constituting the image sensor) according to the image input apparatus 100.
<Pseudo sensor saturation pixel value>
Next, the pseudo sensor saturation pixel value (pseudo control pixel value) will be described with reference to FIG. FIG. 9 is a diagram for explaining the pseudo sensor saturation pixel value of the image input apparatus 100.

上述したように、基準画像入力装置は、複数存在する画像入力装置の中から代表的に選択された画像入力装置のことを言う。そして、本実施の形態では、基準画像入力装置の飽和光強度を算出して、その飽和光強度に対する他の画像入力装置の画素値を擬似センサ飽和画素値と称する。   As described above, the reference image input device refers to an image input device typically selected from a plurality of image input devices. In this embodiment, the saturation light intensity of the reference image input device is calculated, and the pixel value of the other image input device corresponding to the saturation light intensity is referred to as a pseudo sensor saturation pixel value.

図9を例に説明すると、画像入力装置100a〜100cのうち、基準画像入力装置である画像入力装置100aの飽和光強度がWaである。従って、飽和光強度Waに対する他の画像入力装置(画像入力装置100b・100c)の画素値が擬似センサ飽和画素値となる。なお、擬似センサ飽和画素値の算出方法は後出の式(1)〜(3)に従うため、その詳細は後ほど説明する。
<マッピング(Target_Max、Target_Min)>
最後に、マッピングについて図10を参照して説明する。図10は、(擬似)センサ飽和画素値をTarget_Max(第3割当画素値)に、暗光強度センサ画素値をTarget_Min(第1割当画素値)にそれぞれ割り当てた様子を示す図である。
Referring to FIG. 9 as an example, the saturation light intensity of the image input device 100a that is the reference image input device among the image input devices 100a to 100c is Wa. Therefore, the pixel values of the other image input devices (image input devices 100b and 100c) with respect to the saturated light intensity Wa become the pseudo sensor saturated pixel values. Note that the method for calculating the pseudo sensor saturation pixel value follows formulas (1) to (3) described later, and details thereof will be described later.
<Mapping (Target_Max, Target_Min)>
Finally, mapping will be described with reference to FIG. FIG. 10 is a diagram illustrating a state in which a (pseudo) sensor saturation pixel value is assigned to Target_Max (third assigned pixel value) and a dark light intensity sensor pixel value is assigned to Target_Min (first assigned pixel value).

図10(a)に示すように、画像入力装置100a〜100cの平均出力特性曲線101a〜101cは互いに曲線形状が異なる。従って、このままの状態では、画像入力装置100a〜100cに同じ光強度の光を照射した場合に、同じ画素値を得ることができない。そこで、画像入力装置100a〜100cから出力される画素値を統一するために、Target_Max、及びTarget_Minが設定される。そして、キャリブレーション装置50が、擬似センサ飽和画素値をTarget_Maxに、暗光強度センサ画素値をTarget_Minにそれぞれ割り当てる。   As shown in FIG. 10A, the average output characteristic curves 101a to 101c of the image input devices 100a to 100c have different curve shapes. Therefore, in this state, the same pixel value cannot be obtained when the image input devices 100a to 100c are irradiated with light having the same light intensity. Therefore, Target_Max and Target_Min are set in order to unify the pixel values output from the image input devices 100a to 100c. Then, the calibration device 50 assigns the pseudo sensor saturation pixel value to Target_Max and assigns the dark light intensity sensor pixel value to Target_Min.

概略的に説明すれば、図10(b)に示すように、任意の画像入力装置について、その擬似センサ飽和画素値が、所定のTarget_Maxに、暗光強度センサ画素値が所定のTarget_Minにそれぞれ割り当てられる。従って、画像入力装置100a〜100cの何れの画像入力装置に対して光を照射した場合にも、各々の擬似センサ飽和画素値、及び暗光強度センサ画素値が、Target_Max、及びTarget_Minとなる。そして、その結果、画像入力装置100a〜100cに同じ光強度の光を照射した場合に、同じ画素値を得ることができる。なお、その詳細については後述する。また、上記説明したマッピングとは異なる方法でのマッピングもあるが、その詳細は、後述の〔他の実施形態〕で説明する。
(キャリブレーション装置50の要部構成)
次に、キャリブレーション装置50について図1を参照して説明する。図1は、キャリブレーション装置50の要部構成を示すブロック図である。なお、キャリブレーション装置50は、先述した信号変換回路306に含まれる構成であっても、あるいは新たな構成として画像入力装置100に設けられてもよい。以下で説明する構成を備えるのであれば、その構成は任意に選択しうる。
In brief, as shown in FIG. 10B, for an arbitrary image input device, the pseudo sensor saturation pixel value is assigned to a predetermined Target_Max, and the dark light intensity sensor pixel value is assigned to a predetermined Target_Min. It is done. Therefore, even when any one of the image input devices 100a to 100c is irradiated with light, the respective pseudo sensor saturation pixel values and dark light intensity sensor pixel values become Target_Max and Target_Min. As a result, when the image input devices 100a to 100c are irradiated with light having the same light intensity, the same pixel value can be obtained. Details thereof will be described later. Further, although there is a mapping in a method different from the mapping described above, the details will be described in [Other Embodiments] described later.
(Main components of the calibration device 50)
Next, the calibration device 50 will be described with reference to FIG. FIG. 1 is a block diagram showing a main configuration of the calibration apparatus 50. As shown in FIG. The calibration device 50 may be included in the signal conversion circuit 306 described above or may be provided in the image input device 100 as a new configuration. If the configuration described below is provided, the configuration can be arbitrarily selected.

また、以下の説明では、キャリブレーション装置50は、画像入力装置100a〜100cにそれぞれ備えられているものとして説明する。さらに、基準画像入力装置は、画像入力装置100aであり(図7参照)、キャリブレーションの対象は画像入力装置100b(対象イメージセンサ)であるとして説明する。   In the following description, the calibration device 50 is described as being provided in each of the image input devices 100a to 100c. Further, the description will be made assuming that the reference image input device is the image input device 100a (see FIG. 7) and the calibration target is the image input device 100b (target image sensor).

キャリブレーション装置50は、算出部11(算出手段)と、設定部12と、マッピング部13(割当手段)と、を備える。なお、図1では、キャリブレーション装置50の外部に記録部10が配設されているが、記録部10は、キャリブレーション装置50の内部にあっても、また外部に外付けされた構成であってもよい。   The calibration device 50 includes a calculation unit 11 (calculation unit), a setting unit 12, and a mapping unit 13 (allocation unit). In FIG. 1, the recording unit 10 is disposed outside the calibration device 50, but the recording unit 10 is configured inside or outside the calibration device 50. May be.

記録部10は、基準画像入力装置である画像入力装置100aに係る、明光強度センサ画素値(第2基準画素値)と、暗光強度センサ画素値(第1基準画素値)と、飽和光強度Wa(図7)におけるセンサ飽和画素値(第3基準画素値)とを記録している。加えて、記録部10は、キャリブレーションの対象である画像入力装置100bの明光強度センサ画素値(第2対象画素値)、及び暗光強度センサ画素値(第1対象画素値)を記録している。なお、その明光強度センサ画素値、及び暗光強度センサ画素値は、図8を参照して説明した方法によって画像入力装置ごとに取得可能である。   The recording unit 10 includes a bright light intensity sensor pixel value (second reference pixel value), a dark light intensity sensor pixel value (first reference pixel value), and a saturated light intensity related to the image input device 100a that is a reference image input device. The sensor saturation pixel value (third reference pixel value) in Wa (FIG. 7) is recorded. In addition, the recording unit 10 records the bright light intensity sensor pixel value (second target pixel value) and the dark light intensity sensor pixel value (first target pixel value) of the image input device 100b to be calibrated. Yes. The bright light intensity sensor pixel value and the dark light intensity sensor pixel value can be acquired for each image input device by the method described with reference to FIG.

算出部11は、画像入力装置100bの擬似センサ飽和画素値を算出する。具体的には、算出部11は、基準画像入力装置である画像入力装置100aに係る、明光強度センサ画素値、暗光強度センサ画素値、及びセンサ飽和画素値と、画像入力装置100bに係る、明光強度センサ画素値、及び暗光強度センサ画素値とを記録部10から読み出し、それらの値に基づいて、画像入力装置100bの擬似センサ飽和画素値を算出する。   The calculation unit 11 calculates a pseudo sensor saturation pixel value of the image input device 100b. Specifically, the calculation unit 11 relates to the bright light intensity sensor pixel value, the dark light intensity sensor pixel value, and the sensor saturation pixel value related to the image input apparatus 100a which is the reference image input apparatus, and the image input apparatus 100b. The bright light intensity sensor pixel value and the dark light intensity sensor pixel value are read from the recording unit 10, and the pseudo sensor saturation pixel value of the image input device 100b is calculated based on these values.

なお、擬似センサ飽和画素値は、式(1)、(2)から導かれる式(3)に従って算出される。ここで、式(1)の理解の容易のため、式(1)で示されるa〜dの関係を図11に示す。図11、及び式(1)に示すように、画像入力装置100bの擬似センサ飽和画素値は、基準画像入力装置である画像入力装置100a、及びキャリブレーションの対象である画像入力装置100bにおける、各々の明光強度センサ画素値、暗光強度センサ画素値、(擬似)センサ飽和画素値の差分を用いた比率計算に基づいて算出される。   The pseudo sensor saturation pixel value is calculated according to the equation (3) derived from the equations (1) and (2). Here, for easy understanding of the equation (1), the relations a to d shown in the equation (1) are shown in FIG. As shown in FIG. 11 and Expression (1), the pseudo sensor saturation pixel values of the image input device 100b are respectively the image input device 100a that is the reference image input device and the image input device 100b that is the object of calibration. Is calculated based on a ratio calculation using a difference between the bright light intensity sensor pixel value, the dark light intensity sensor pixel value, and the (pseudo) sensor saturation pixel value.

a:b=c:d …(1)
ただし、
a:基準画像入力装置(画像入力装置100a)における、センサ飽和画素値−明光強度センサ画素値
b:基準画像入力装置(画像入力装置100a)における、明光強度センサ画素値−暗光強度センサ画素値
c:画像入力装置100bにおける、擬似センサ飽和画素値−明光強度センサ画素値
d:画像入力装置100bにおける、明光強度センサ画素値−暗光強度センサ画素値
(x1−y1):(y1−z1)=(x2−y2):(y2−z2) …(2)
x2={x1・y2−(x1−y1)・z2−y2z1}/(y1−z1) …(3)
ただし、
x1:基準画像入力装置(画像入力装置100a)における、センサ飽和画素値
y1:基準画像入力装置(画像入力装置100a)における、明光強度センサ画素値
z1:基準画像入力装置(画像入力装置100a)における、暗光強度センサ画素値
x2:画像入力装置100bにおける、擬似センサ飽和画素値
y2:画像入力装置100bにおける、明光強度センサ画素値
z2:画像入力装置100bにおける、暗光強度センサ画素値
とする。
a: b = c: d (1)
However,
a: Sensor saturation pixel value−bright light intensity sensor pixel value in the reference image input device (image input device 100a) b: Bright light intensity sensor pixel value−dark light intensity sensor pixel value in the reference image input device (image input device 100a) c: Pseudo sensor saturation pixel value−bright light intensity sensor pixel value in the image input apparatus 100b d: Bright light intensity sensor pixel value−dark light intensity sensor pixel value in the image input apparatus 100b (x1-y1): (y1-z1) = (X2-y2) :( y2-z2) (2)
x2 = {x1.y2- (x1-y1) .z2-y2z1} / (y1-z1) (3)
However,
x1: Sensor saturation pixel value in the reference image input device (image input device 100a) y1: Bright light intensity sensor pixel value in the reference image input device (image input device 100a) z1: In the reference image input device (image input device 100a) , Dark light intensity sensor pixel value x2: pseudo sensor saturation pixel value in the image input apparatus 100b y2: bright light intensity sensor pixel value in the image input apparatus 100b z2: dark light intensity sensor pixel value in the image input apparatus 100b

つまり、本実施の形態では、式(1)のa:b=c:dの関係式が成り立つように、算出部11が画像入力装置100bの擬似センサ飽和画素値を算出する。   That is, in the present embodiment, the calculation unit 11 calculates the pseudo sensor saturation pixel value of the image input device 100b so that the relational expression of a: b = c: d in Expression (1) holds.

なお、式(3)は、画像入力装置ごとに擬似センサ飽和画素値(x2)が算出される形で示されている。しかしながら、実際には、画像入力装置の光センサ素子ごとに飽和擬似センサ画素値(x2)が算出されるため、その平均値が、画像入力装置の擬似センサ飽和画素値となる。従って、センサ素子から出力される画素値にばらつきがない場合には、式(3)をそのまま画像入力装置の擬似センサ飽和画素値の算出式とすればよく、センサ素子から出力される画素値にばらつきが存在するのであれば、センサ素子ごとに式(3)により擬似センサ飽和画素値を算出し、その平均値を、画像入力装置の擬似センサ飽和画素値とすればよい。   Equation (3) is shown in a form in which the pseudo sensor saturation pixel value (x2) is calculated for each image input device. However, in practice, the saturation pseudo sensor pixel value (x2) is calculated for each photosensor element of the image input device, and the average value thereof becomes the pseudo sensor saturation pixel value of the image input device. Therefore, when there is no variation in the pixel value output from the sensor element, Equation (3) may be used as it is as a calculation formula for the pseudo sensor saturation pixel value of the image input device, and the pixel value output from the sensor element If there is variation, the pseudo sensor saturation pixel value may be calculated for each sensor element by Equation (3), and the average value may be used as the pseudo sensor saturation pixel value of the image input device.

ここで、現実にはセンサ素子から出力される画素値にはばらつきが認められるため、センサ素子ごとに式(3)により擬似センサ飽和画素値を算出し、その平均値を、画像入力装置の擬似センサ飽和画素値とする場合が多い。その場合、式(3)を用いることにより、画像入力装置100bに存在する明光強度センサ画素値、及び暗光強度センサ画素値のばらつき(より詳細には、画像入力装置100bに係る、複数の光センサ素子から出力される画素値のばらつき)を内包しつつ擬似センサ飽和画素値が算出されるため、より実情に即したキャリブレーションが行われる。   Here, in reality, since the pixel value output from the sensor element varies, the pseudo sensor saturation pixel value is calculated by Equation (3) for each sensor element, and the average value is calculated as the pseudo value of the image input device. In many cases, the sensor saturated pixel value is used. In that case, by using the expression (3), variations in the bright light intensity sensor pixel value and the dark light intensity sensor pixel value existing in the image input device 100b (more specifically, a plurality of light sources related to the image input device 100b). Since the pseudo sensor saturation pixel value is calculated while including the variation of the pixel value output from the sensor element), calibration in accordance with the actual situation is performed.

設定部12には、マッピング部13がマッピングに用いる目標値としてのTarget_Max、及びTarget_Minが設定値として格納される。具体的には、図示しない入力装置等を介して、Target_Max、及びTarget_Minが設定部12に入力され、設定部12は、それらの入力値を設定値として格納する。そして、設定部12は、マッピング部13からの読み出しに応じて、Target_Max、及びTarget_Minをマッピング部13に出力する。なお、Target_Max、及びTarget_Minは、記録部10に記録された構成であってもよく、何れの構成を採用するかは適宜選択してよい。   The setting unit 12 stores Target_Max and Target_Min as target values used by the mapping unit 13 for mapping as setting values. Specifically, Target_Max and Target_Min are input to the setting unit 12 via an input device (not shown) or the like, and the setting unit 12 stores these input values as setting values. Then, the setting unit 12 outputs Target_Max and Target_Min to the mapping unit 13 in response to reading from the mapping unit 13. Note that Target_Max and Target_Min may be recorded in the recording unit 10, and which structure is used may be appropriately selected.

マッピング部13は、画像入力装置100bの擬似センサ飽和画素値を算出部11から取得すると共に、画像入力装置100bの暗光強度センサ画素値を記録部10から読み取る。さらに、マッピング部13は、Target_Max、及びTarget_Minを設定部12から読み取る。そして、マッピング部13は、画像入力装置100bの擬似センサ飽和画素値をTarget_Maxに、画像入力装置100bの暗光強度センサ画素値をTarget_Minにそれぞれ割り当てる(マッピングする)。   The mapping unit 13 acquires the pseudo sensor saturation pixel value of the image input device 100b from the calculation unit 11, and reads the dark light intensity sensor pixel value of the image input device 100b from the recording unit 10. Further, the mapping unit 13 reads Target_Max and Target_Min from the setting unit 12. Then, the mapping unit 13 assigns (maps) the pseudo sensor saturation pixel value of the image input device 100b to Target_Max and the dark light intensity sensor pixel value of the image input device 100b to Target_Min.

なお、「割り当てる」とは、例えば、画素値が0〜255で表わされるときに、Target_Maxを255に、Target_Minを0に、それぞれ割り当てることを言う。このように設定することで、画像入力装置100bの擬似センサ飽和画素値が255に、画像入力装置100bの暗光強度センサ画素値が0にキャリブレーションされる。また、割り当てる画素値は、0〜255に限られず、適宜選択することができる。   Note that “assign” means assigning Target_Max to 255 and Target_Min to 0, for example, when the pixel value is represented by 0 to 255. By setting in this way, the pseudo sensor saturation pixel value of the image input device 100b is calibrated to 255, and the dark light intensity sensor pixel value of the image input device 100b is calibrated to 0. The pixel value to be assigned is not limited to 0 to 255, and can be selected as appropriate.

上記構成に基づくキャリブレーション処理の動作を、図12を参照して説明する。なお、図12は、キャリブレーションの動作を説明するためのフローである。   The operation of the calibration process based on the above configuration will be described with reference to FIG. FIG. 12 is a flowchart for explaining the calibration operation.

まず、ステップS10では、キャリブレーション装置50が、複数の画像入力装置の平均出力特性曲線を取得し、それぞれの平均出力特性曲線について、R2乗値が0.99となる飽和光強度を算出する。本実施の形態では、画像入力装置100a〜100cの平均出力特性曲線101a〜101cについて、2乗値が0.99となる飽和光強度Wa、Wb、Wcが算出される。なお、キャリブレーション装置50がR2乗値を算出する方法については、図示しない演算部が、一般的な方法で演算するものと考えてよい。   First, in step S10, the calibration device 50 acquires average output characteristic curves of a plurality of image input devices, and calculates a saturated light intensity at which the R-square value is 0.99 for each average output characteristic curve. In the present embodiment, saturated light intensities Wa, Wb, and Wc at which the square value is 0.99 are calculated for the average output characteristic curves 101a to 101c of the image input devices 100a to 100c. In addition, about the method by which the calibration apparatus 50 calculates R square value, you may think that the calculating part which is not shown in figure calculates with a general method.

次に、ステップS12では、キャリブレーション装置50が代表的な画像入力装置を決定する。本実施の形態では、画像入力装置100a〜100cのうち、画像入力装置100aを代表的に選択し、画像入力装置100aが基準画像入力装置であるものとして説明している。なお、本実施の形態では、説明の便宜上、飽和光強度が最も低い画像入力装置100aを基準画像入力装置としているため、キャリブレーション装置50は、飽和光強度Wa、Wb、Wcのうち、最も低いWaに対応する画像入力装置100aを基準画像入力装置として決定する。その決定は、図示しないキャリブレーション装置50の決定部がWa、Wb、Wcの大小を比較して決定するものと考えてよい。   Next, in step S12, the calibration device 50 determines a representative image input device. In the present embodiment, the image input device 100a is representatively selected from the image input devices 100a to 100c, and the image input device 100a is described as the reference image input device. In the present embodiment, for convenience of explanation, the image input device 100a having the lowest saturation light intensity is used as the reference image input device. The image input device 100a corresponding to Wa is determined as the reference image input device. The determination may be considered that the determination unit of the calibration device 50 (not shown) determines the comparison by comparing the magnitudes of Wa, Wb, and Wc.

なお、本実施の形態では、説明の便宜上、最も飽和照度が低い画像入力装置100aを代表的な基準画像入力装置として決定したが、他の方法によって代表的な基準画像入力装置を選択してもよい。   In the present embodiment, for convenience of explanation, the image input device 100a having the lowest saturation illuminance is determined as the representative reference image input device, but the representative reference image input device may be selected by another method. Good.

続いて、ステップS14では、キャリブレーション装置50の記録部10が、基準画像入力装置の飽和光強度に対するセンサ飽和画素値を記録する。本実施の形態では、基準画像入力装置は画像入力装置100aであるため、記録部10は、画像入力装置100aの飽和光強度Waに対するセンサ飽和画素値を記録する。   Subsequently, in step S14, the recording unit 10 of the calibration device 50 records the sensor saturation pixel value with respect to the saturation light intensity of the reference image input device. In the present embodiment, since the reference image input device is the image input device 100a, the recording unit 10 records the sensor saturated pixel value with respect to the saturated light intensity Wa of the image input device 100a.

そして、ステップS16では、マッピングに用いられるTarget_Max、及びTarget_Minが、キャリブレーション装置50の設定部12に設定される。なお、Target_Max、及びTarget_Minは、記録部10に設定されていてもよく、何れを用いるかは適宜選択してよい。また、Target_Max、及びTarget_Minは、図示しない入力装置等を介してユーザが入力する構成としてよい。   In step S <b> 16, Target_Max and Target_Min used for mapping are set in the setting unit 12 of the calibration device 50. Note that Target_Max and Target_Min may be set in the recording unit 10, and which one to use may be appropriately selected. Further, Target_Max and Target_Min may be configured to be input by the user via an input device or the like (not shown).

次にステップS20〜ステップS26について説明する。なお、ステップS20〜ステップS26は、ステップS10〜ステップS16と前後して、あるいは同時に行う構成でよい。また、ステップS20〜ステップS26は、その順番は任意に決めてよく、この順番に限られない。   Next, step S20 to step S26 will be described. Steps S20 to S26 may be performed before or after Steps S10 to S16 or simultaneously. Further, the order of steps S20 to S26 may be arbitrarily determined, and is not limited to this order.

ステップS20、及びステップS22では、記録部10が、基準画像入力装置の明光強度センサ画素値および暗光強度センサ画素値を記録する。従って、本実施の形態では、基準画像入力装置は画像入力装置100aであるため、記録部10は、画像入力装置100aの明光強度センサ画素値および暗光強度センサ画素値を記録する。   In step S20 and step S22, the recording unit 10 records the bright light intensity sensor pixel value and the dark light intensity sensor pixel value of the reference image input device. Therefore, in the present embodiment, since the reference image input device is the image input device 100a, the recording unit 10 records the bright light intensity sensor pixel value and the dark light intensity sensor pixel value of the image input device 100a.

また、ステップS24、及びステップS26では、記録部10が、キャリブレーションの対象である画像入力装置の明光強度センサ画素値および暗光強度センサ画素値を記録する。従って、本実施の形態では、記録部10は、画像入力装置100bの明光強度センサ画素値および暗光強度センサ画素値を記録する。そして、ステップS26までの工程が終わると、次にステップS30に進む。   In step S24 and step S26, the recording unit 10 records the bright light intensity sensor pixel value and the dark light intensity sensor pixel value of the image input device that is the object of calibration. Accordingly, in the present embodiment, the recording unit 10 records the bright light intensity sensor pixel value and the dark light intensity sensor pixel value of the image input device 100b. Then, when the process up to step S26 is completed, the process proceeds to step S30.

ステップS30では、算出部11が、キャリブレーションの対象である画像入力装置の擬似センサ飽和画素値を算出する。本実施の形態では、算出部11が、ステップS14、16、20〜26で記録した各画素値に基いて、飽和光強度Waに対する画像入力装置100bの擬似センサ飽和画素値を算出する。なお、擬似センサ飽和画素値は、上記式(1)〜(3)に従い算出される。   In step S <b> 30, the calculation unit 11 calculates a pseudo sensor saturation pixel value of the image input device to be calibrated. In the present embodiment, the calculation unit 11 calculates the pseudo sensor saturation pixel value of the image input device 100b with respect to the saturation light intensity Wa based on the pixel values recorded in steps S14, 16, 20-26. The pseudo sensor saturated pixel value is calculated according to the above formulas (1) to (3).

そして、ステップS32では、マッピング部13が、画像入力装置100bの擬似センサ飽和画素値を算出部11から取得すると共に、Target_Max、Target_Min、及び画像入力装置100bの暗光強度センサ画素値を記録部10から読み取る。そのうえで、マッピング部13は、画像入力装置100bの擬似センサ飽和画素値をTarget_Maxに、画像入力装置100bの暗光強度センサ画素値をTarget_Minにそれぞれ割り当てる。   In step S32, the mapping unit 13 acquires the pseudo sensor saturation pixel value of the image input device 100b from the calculation unit 11, and also records the Target_Max, Target_Min, and the dark light intensity sensor pixel value of the image input device 100b. Read from. In addition, the mapping unit 13 assigns the pseudo sensor saturation pixel value of the image input device 100b to Target_Max, and assigns the dark light intensity sensor pixel value of the image input device 100b to Target_Min.

従って、例えば画像入力装置100bのキャリブレーション後の画素値の取り得る範囲の最小値が0に、その取り得る範囲の最大値が255に設定されている場合には、Target_Minが0に、Target_Maxが255に、それぞれ割り当てられる。なお、その取り得る範囲は0〜255に限られず、適宜選択してよい。   Therefore, for example, when the minimum value of the range that can be taken by the pixel value after calibration of the image input apparatus 100b is set to 0 and the maximum value of the range that can be taken is set to 255, Target_Min is set to 0, and Target_Max is set to 255, respectively. In addition, the range which can be taken is not restricted to 0-255, You may select suitably.

このように、ステップS10〜ステップS32を経ることにより、キャリブレーションの対象である画像入力装置100bのキャリブレーションが行われる。なお、上記説明では画像入力装置100bについて説明したが、他の画像入力装置についても同様のステップを経ることで、同様のキャリブレーション結果を得ることができる。   As described above, the calibration of the image input apparatus 100b that is the object of calibration is performed through steps S10 to S32. In the above description, the image input device 100b has been described. However, the same calibration result can be obtained for other image input devices through the same steps.

次に、キャリブレーション装置50によるキャリブレーションによって得られる効果を説明する。   Next, effects obtained by calibration by the calibration device 50 will be described.

上記の構成によれば、キャリブレーション装置50では、算出部11が、基準画像入力装置である画像入力装置100aに係る、明光強度センサ画素値、暗光強度センサ画素値、及びセンサ飽和画素値と、画像入力装置100bに係る、明光強度センサ画素値、及び暗光強度センサ画素値とを記録部10から読み出し、それらの値に基づいて、画像入力装置100bの擬似センサ飽和画素値を算出する。   According to the above configuration, in the calibration device 50, the calculation unit 11 includes the bright light intensity sensor pixel value, the dark light intensity sensor pixel value, and the sensor saturation pixel value related to the image input device 100a that is the reference image input device. Then, the bright light intensity sensor pixel value and the dark light intensity sensor pixel value related to the image input device 100b are read from the recording unit 10, and the pseudo sensor saturated pixel value of the image input device 100b is calculated based on these values.

従って、擬似センサ飽和画素値は、画像入力装置100bの明光強度センサ画素値、及び暗光強度センサ画素値を取り込んだ値として算出される。そして、その明光強度センサ画素値、及び暗光強度センサ画素値は、複数のセンサ素子の平均値として算出される値である。従って、当該複数のセンサ素子によって出力される画素値のばらつきを内包した擬似センサ飽和画素値が取得される。   Therefore, the pseudo sensor saturation pixel value is calculated as a value obtained by taking in the bright light intensity sensor pixel value and the dark light intensity sensor pixel value of the image input device 100b. The bright light intensity sensor pixel value and the dark light intensity sensor pixel value are values calculated as an average value of a plurality of sensor elements. Therefore, a pseudo sensor saturation pixel value including a variation in pixel values output by the plurality of sensor elements is acquired.

さらに、キャリブレーション装置50では、マッピング部13が、画像入力装置100bのキャリブレーション後の画素値として、画像入力装置100bに係る暗光強度センサ画素値をTarget_Minに、画像入力装置100bの擬似センサ飽和画素値をTarget_Maxに、それぞれマッピングする。そして、同様のキャリブレーションは、画像入力装置100a・100cに対しても実行できる。それゆえ、複数のイメージセンサから出力される画素値のばらつきを統一することができる。   Further, in the calibration device 50, the mapping unit 13 uses the dark light intensity sensor pixel value related to the image input device 100b as Target_Min as the pixel value after calibration of the image input device 100b, and the pseudo sensor saturation of the image input device 100b. Pixel values are mapped to Target_Max, respectively. The same calibration can be executed for the image input devices 100a and 100c. Therefore, variations in pixel values output from a plurality of image sensors can be unified.

加えて、キャリブレーション装置50では、代表的な画像入力装置として画像入力装置100aを定めるため、パラメータを画像入力装置100a〜100cごとに個別に変更する必要がなく、キャリブレーションに要する時間と手間を大幅に削減することができる。これにより、キャリブレーションに要する時間と手間を大幅に削減しつつ、複数のイメージセンサから出力される画素値のばらつきを統一することができる。   In addition, since the calibration apparatus 50 defines the image input apparatus 100a as a representative image input apparatus, it is not necessary to individually change parameters for each of the image input apparatuses 100a to 100c, and time and labor required for calibration are reduced. It can be greatly reduced. This makes it possible to unify variations in pixel values output from a plurality of image sensors while greatly reducing the time and labor required for calibration.

そして、キャリブレーション装置50では、基準画像入力装置(画像入力装置100a)の平均出力特性曲線の線形域における最も暗い光強度(暗光強度)から最も明るい光強度(飽和光強度)までをキャリブレーションの対象光強度域とすることができる。それゆえ、より広い光強度域でのキャリブレーションが可能となり、さらに好適なキャリブレーション装置をユーザに提供することができる。   In the calibration device 50, calibration is performed from the darkest light intensity (dark light intensity) to the brightest light intensity (saturated light intensity) in the linear region of the average output characteristic curve of the reference image input device (image input device 100a). It is possible to set the target light intensity range. Therefore, calibration in a wider light intensity range is possible, and a more suitable calibration device can be provided to the user.

なお、キャリブレーション装置50は、特に、基準画像入力装置の線形域に対応する光強度域についてキャリブレーションすることが好ましい。これは、マッピング部13が、画像入力装置100bのキャリブレーション後の画素値が取り得る範囲としてTarget_Min、及びTarget_Maxを割り当てることに起因する。つまり、センサ飽和画素値(白)と暗光強度センサ画素値(黒)との間に存在するグレー領域を正確にキャリブレーションするためには、光強度の変化に対して画素値が相関性をもって変化する光強度域においてキャリブレーションすることが特に望まれるためである。   The calibration device 50 preferably calibrates the light intensity region corresponding to the linear region of the reference image input device. This is because the mapping unit 13 assigns Target_Min and Target_Max as possible ranges of the pixel values after calibration of the image input apparatus 100b. In other words, in order to accurately calibrate the gray area existing between the sensor saturation pixel value (white) and the dark light intensity sensor pixel value (black), the pixel value has a correlation with the change in light intensity. This is because calibration is particularly desired in a changing light intensity range.

そのため、基準画像入力装置は、最も感度の高い画像入力装置であることが好ましい。仮に最も感度の悪い画像入力装置を基準画像入力装置とした場合、基準画像入力装置の飽和光強度は、最も感度の高い画像入力装置における飽和域に含まれることになる。そうなると、最も感度の高い画像入力装置(より正確には、その基準画像入力装置よりも感度の高い画像入力装置すべて)は、グレー領域におけるキャリブレーションが正確に行われないことになる。   Therefore, it is preferable that the reference image input device is an image input device with the highest sensitivity. If the image input device with the lowest sensitivity is used as the reference image input device, the saturation light intensity of the reference image input device is included in the saturation region in the image input device with the highest sensitivity. As a result, the most sensitive image input device (more precisely, all image input devices having higher sensitivity than the reference image input device) is not accurately calibrated in the gray region.

このような理由から、キャリブレーション装置50では、最も感度の高い画像入力装置を基準画像入力装置とし、その平均出力特性曲線の線形域における最も暗い光強度(暗光強度)から最も明るい光強度(飽和光強度)までをキャリブレーションの対象光強度域とすることが特に好ましい。   For this reason, the calibration device 50 uses the most sensitive image input device as the reference image input device, and the darkest light intensity (dark light intensity) to the brightest light intensity (dark light intensity) in the linear region of the average output characteristic curve. It is particularly preferable that the light intensity range up to (saturated light intensity) is a target light intensity range for calibration.

また、最も感度が高い画像入力装置を画像入力装置とした場合、画像入力装置100aよりも感度が悪い画像入力装置、つまり画像入力装置100aを除く画像入力装置100b、及び画像入力装置100c、さらに言えば、画像入力装置100a自身についても正確にキャリブレーションを行うことができるため、画像入力装置の製造に際して歩留まりを格段に向上させることができる。しかも、キャリブレーション後の画素値の取り得る値がTarget_Min、及びTarget_Maxであるため、パラメータを画像入力装置ごとに個別に変更する必要がなく、キャリブレーションに要する時間と手間を大幅に削減することができる。   Further, when the image input device having the highest sensitivity is an image input device, the image input device has a sensitivity lower than that of the image input device 100a, that is, the image input device 100b excluding the image input device 100a, and the image input device 100c. In this case, the image input apparatus 100a itself can be accurately calibrated, so that the yield can be significantly improved when the image input apparatus is manufactured. Moreover, since the possible pixel values after calibration are Target_Min and Target_Max, it is not necessary to individually change parameters for each image input device, and the time and labor required for calibration can be greatly reduced. it can.

但し、すべてのイメージセンサの中から最も感度が高いイメージセンサを抽出することは現実的には困難な場合がある。従って、そのような場合には、より感度が高いイメージセンサを抽出して、そのイメージセンサを基準イメージセンサとすることが好ましい。それにより、イメージセンサの製造に際して、歩留まりを改善することができる。   However, it may be difficult in practice to extract the image sensor having the highest sensitivity from all the image sensors. Therefore, in such a case, it is preferable to extract an image sensor with higher sensitivity and use the image sensor as a reference image sensor. Thereby, the yield can be improved when manufacturing the image sensor.

また、キャリブレーション装置50では、Target_Max、及びTarget_Minを任意に決定することができる。   Further, the calibration apparatus 50 can arbitrarily determine Target_Max and Target_Min.

従って、画像入力装置の使用状況に応じてその範囲を決めることができるため、ユーザは、使用状況・使用目的等に応じた柔軟なキャリブレーションを行える。   Therefore, since the range can be determined according to the usage status of the image input apparatus, the user can perform flexible calibration according to the usage status, the usage purpose, and the like.

そして、各々の画像入力装置が上記キャリブレーション装置50を備える場合には、パラメータ(Target_Max、及びTarget_Min)を画像入力装置ごとに個別に変更する必要がないため、キャリブレーションに要する時間と手間を大幅に削減することができる。   When each image input device includes the calibration device 50, it is not necessary to individually change the parameters (Target_Max and Target_Min) for each image input device, so that the time and labor required for calibration are greatly increased. Can be reduced.

なお、基準画像入力装置である画像入力装置100aに係る、明光強度センサ画素値、暗光強度センサ画素値、及びセンサ飽和画素値は、画像入力装置100bの製造時、あるいは工場出荷時に記録部10に予め格納しておけばよい。また、画像入力装置100bに係る、明光強度センサ画素値、及び暗光強度センサ画素値を、各々の画素値を測定した後に、記録部10に格納しておけばよい。これにより、算出部11は、キャリブレーションを行うときに上記各画素値を記録部10から読み出すことにより、擬似センサ飽和画素値を算出することができる。   Note that the bright light intensity sensor pixel value, the dark light intensity sensor pixel value, and the sensor saturation pixel value related to the image input apparatus 100a that is the reference image input apparatus are recorded in the recording unit 10 at the time of manufacturing the image input apparatus 100b or at the time of factory shipment. Can be stored in advance. In addition, the bright light intensity sensor pixel value and the dark light intensity sensor pixel value related to the image input device 100b may be stored in the recording unit 10 after each pixel value is measured. Thereby, the calculation unit 11 can calculate the pseudo sensor saturation pixel value by reading each pixel value from the recording unit 10 when performing calibration.

以上のように、本実施の形態に係るキャリブレーション装置50では、複数の画像入力装置から出力される画素値のばらつきを統一するキャリブレーションに要する時間と手間が大幅に削減され、かつ、画像入力装置の製造に際して歩留まりを格段に向上させることが可能となる。   As described above, in the calibration device 50 according to the present embodiment, the time and labor required for calibration to unify the dispersion of pixel values output from a plurality of image input devices are greatly reduced, and image input is performed. It is possible to significantly improve the yield when manufacturing the device.

なお、本実施の形態は光センサを内蔵した液晶パネルを例に説明したが、本発明は光センサを内蔵した液晶パネルに限らず、CCDなどの一般的なイメージセンサにも適用可能である。
〔他の実施形態〕
ここで、図13〜図15を参照して、本発明の他の実施形態に係るキャリブレーション装置60を説明する。なお、図1等を参照して説明した内容と同様の内容は説明を省略する。図13は、式(4)で示されるa〜dの関係を示す図である。図14は、画像入力装置100bの明光強度センサ画素値をTarget_Midに、暗光強度センサ画素値をTarget_Minにそれぞれ割り当てる様子を示す図である。図15は、キャリブレーション装置60に係るキャリブレーションの動作を説明するためのフローである。
Although the present embodiment has been described by taking a liquid crystal panel with a built-in optical sensor as an example, the present invention is not limited to a liquid crystal panel with a built-in optical sensor, but can be applied to a general image sensor such as a CCD.
[Other Embodiments]
Here, a calibration device 60 according to another embodiment of the present invention will be described with reference to FIGS. The description of the same contents as those described with reference to FIG. FIG. 13 is a diagram illustrating the relationship of a to d represented by Expression (4). FIG. 14 is a diagram illustrating how the bright light intensity sensor pixel value and the dark light intensity sensor pixel value of the image input device 100b are assigned to Target_Mid, respectively. FIG. 15 is a flowchart for explaining the calibration operation according to the calibration device 60.

図13に基づいて、キャリブレーション装置60では、基準画像入力装置100aに係るセンサ飽和画素値、明光強度センサ画素値、及び暗光強度センサ画素値を取得すると共に、そのセンサ飽和画素値にTarget_Maxを、暗光強度センサ画素値にTarget_Minを、それぞれ割り当てる。なお、Target_Max及びTarget_Minは、基準画像入力装置100aの情報処理能力に基づいて与えられる。例えば、基準画像入力装置100aが0〜255の画素値を扱う場合には、Target_Minを0に、Target_Maxに255を割り当てる。あるいは、画素値0〜10を他の用途に利用したい場合には、Target_Minを10に割り当ててもよい。   Based on FIG. 13, the calibration device 60 acquires the sensor saturation pixel value, the bright light intensity sensor pixel value, and the dark light intensity sensor pixel value related to the reference image input device 100a, and sets Target_Max to the sensor saturation pixel value. , Target_Min is assigned to each dark light intensity sensor pixel value. Note that Target_Max and Target_Min are given based on the information processing capability of the reference image input device 100a. For example, when the reference image input apparatus 100a handles pixel values of 0 to 255, Target_Min is assigned to 0 and 255 is assigned to Target_Max. Alternatively, Target_Min may be assigned to 10 when pixel values 0 to 10 are to be used for other purposes.

そして、以下の式(4)、(5)に基づいて、Target_Mid(擬制画素値)を算出する。   Then, Target_Mid (a pseudo pixel value) is calculated based on the following equations (4) and (5).

y={x2×(Z1−y1)+z2×(y1−x1) }/(z1−x1) …(4)
ただし、
y :基準画像入力装置100aのTarget_Mid
x1:基準画像入力装置100aの暗光強度センサ画素値
y1:基準画像入力装置100aの明光強度センサ画素値
z1:基準画像入力装置100aのセンサ飽和画素値
x2:基準画像入力装置100aのTarget_Min
z2:基準画像入力装置100aのTarget_Max
とする。
y = {x2 * (Z1-y1) + z2 * (y1-x1)} / (z1-x1) (4)
However,
y: Target_Mid of the reference image input device 100a
x1: Dark light intensity sensor pixel value of the reference image input device 100a y1: Bright light intensity sensor pixel value of the reference image input device 100a z1: Sensor saturation pixel value of the reference image input device 100a x2: Target_Min of the reference image input device 100a
z2: Target_Max of the reference image input device 100a
And

なお、式(4)は、以下の式(5)に基づいて算出される。   Equation (4) is calculated based on the following equation (5).

a:b=c:d …(5)
ただし、
a:画像入力装置100aにおける、センサ飽和画素値−明光強度センサ画素値
b:画像入力装置100aにおける、明光強度センサ画素値−暗光強度センサ画素値
c:画像入力装置100aにおける、Target_Max−Target_Mid
d:画像入力装置100bにおける、Target_Mid−Target_Min
とする。
a: b = c: d (5)
However,
a: Sensor saturation pixel value-bright light intensity sensor pixel value in the image input apparatus 100a b: Bright light intensity sensor pixel value-dark light intensity sensor pixel value in the image input apparatus 100a c: Target_Max-Target_Mid in the image input apparatus 100a
d: Target_Mid-Target_Min in the image input device 100b
And

続いて、図14に示すように、画像入力装置100bの明光強度センサ画素値がTarget_Midに、暗光強度センサ画素値がTarget_Minに、それぞれ割り当てられる。   Subsequently, as shown in FIG. 14, the bright light intensity sensor pixel value of the image input device 100b is assigned to Target_Mid, and the dark light intensity sensor pixel value is assigned to Target_Min.

つまり、画像入力装置100aを基準画像入力装置として定めることにより、そのセンサ飽和画素値、明光強度センサ画素値、及び暗光強度センサ画素値と、Target_Max及びTarget_Minとに基づいてTarget_Midが算出されるため、キャリブレーションの対象とする画像入力装置100bの特性とは無関係にTarget_Midが取得される。   That is, by setting the image input device 100a as the reference image input device, Target_Mid is calculated based on the sensor saturation pixel value, bright light intensity sensor pixel value, and dark light intensity sensor pixel value, and Target_Max and Target_Min. Target_Mid is acquired regardless of the characteristics of the image input apparatus 100b to be calibrated.

この動作を図1に基づいて説明すると次の通りである。   This operation will be described with reference to FIG.

記録部10は、基準画像入力装置である画像入力装置100aのTarget_Midを記録する。なお、この値は、画像入力装置100aのみに基づいて取得されるものである。また、記録部10は、画像入力装置100bの明光強度センサ画素値、及び暗光強度センサ画素値も記録する。   The recording unit 10 records Target_Mid of the image input device 100a which is a reference image input device. This value is obtained based only on the image input device 100a. The recording unit 10 also records the bright light intensity sensor pixel value and the dark light intensity sensor pixel value of the image input device 100b.

あるいは、Target_Midは算出部11によって算出される構成であっても良い。この場合、記録部10には、画像入力装置100aに係る、センサ飽和画素値、明光強度センサ画素値、及び暗光強度センサ画素値が記録されており、さらに、Target_Max及びTarget_Minが記録されている。   Alternatively, Target_Mid may be calculated by the calculation unit 11. In this case, the recording unit 10 records the sensor saturation pixel value, the bright light intensity sensor pixel value, and the dark light intensity sensor pixel value related to the image input device 100a, and further records Target_Max and Target_Min. .

そして、算出部11は、画像入力装置100aに係る、センサ飽和画素値、明光強度センサ画素値、及び暗光強度センサ画素値、さらにTarget_Max及びTarget_Minを記録部10から読み出し、上記 (4)、(5) 式に基づいてTarget_Midを算出する。つまり、算出部11は、画像入力装置100aに係るセンサ飽和画素値をTarget_Maxに、画像入力装置100aに係る暗光強度センサ画素値をTarget_Minに割り当てた上で、Target_Midを算出する。   Then, the calculation unit 11 reads out the sensor saturation pixel value, the bright light intensity sensor pixel value, the dark light intensity sensor pixel value, and Target_Max and Target_Min from the recording unit 10 according to the image input device 100a, and the above (4), ( 5) Calculate Target_Mid based on the formula. That is, the calculation unit 11 calculates Target_Mid after assigning the sensor saturation pixel value related to the image input device 100a to Target_Max and assigning the dark light intensity sensor pixel value related to the image input device 100a to Target_Min.

なお、図示しない割当手段(第1割当手段)が、画像入力装置100aに係るセンサ飽和画素値をTarget_Maxに、画像入力装置100aに係る暗光強度センサ画素値をTarget_Minに割り当てる構成としてもよい。   An allocating unit (first allocating unit) (not shown) may allocate the sensor saturation pixel value related to the image input device 100a to Target_Max and the dark light intensity sensor pixel value related to the image input device 100a to Target_Min.

設定部12は、マッピング部13がマッピングに用いる目標値としてのTarget_Minを設定値として格納する。なお、Target_Minは、記録部10に記録された構成であってもよく、何れの構成を採用するかは適宜選択してよい。   The setting unit 12 stores Target_Min as a target value used by the mapping unit 13 for mapping as a setting value. Note that Target_Min may have a configuration recorded in the recording unit 10, and which configuration is adopted may be appropriately selected.

マッピング部13(第2割当手段)は、Target_Midと、画像入力装置100bの明光強度センサ画素値及び暗光強度センサ画素値とを記録部10から、Target_Minを設定部12からそれぞれ読み出す。そして、マッピング部13は、画像入力装置100bの明光強度センサ画素値をTarget_Midに、暗光強度センサ画素値をTarget_Minに、それぞれ割り当てる(マッピングする)。   The mapping unit 13 (second allocating unit) reads Target_Mid, the bright light intensity sensor pixel value and the dark light intensity sensor pixel value of the image input device 100b from the recording unit 10, and reads Target_Min from the setting unit 12, respectively. Then, the mapping unit 13 assigns (maps) the bright light intensity sensor pixel value of the image input device 100b to Target_Mid and the dark light intensity sensor pixel value of Target_Min.

上記動作により、画像入力装置100bの明光強度センサ画素値及び暗光強度センサ画素値はそれぞれ、Target_Mid及びTarget_Minにキャリブレーションされる。そして、キャリブレーションの対象が画像入力装置100cであっても、同様のキャリブレーション結果がもたらされる。   With the above operation, the bright light intensity sensor pixel value and the dark light intensity sensor pixel value of the image input device 100b are calibrated to Target_Mid and Target_Min, respectively. Even if the calibration target is the image input device 100c, the same calibration result is obtained.

上記構成に基づくキャリブレーション処理の動作を、図15を参照して説明する。なお、図15は、キャリブレーション装置60に係るキャリブレーションの動作を説明するためのフローである。   The operation of the calibration process based on the above configuration will be described with reference to FIG. FIG. 15 is a flowchart for explaining the calibration operation according to the calibration device 60.

まず、ステップS40からステップS44では、明光強度、暗光強度、及び飽和光強度における画像入力装置100aのセンサ値の平均値が、明光強度センサ画素値、暗光強度センサ画素値、及びセンサ飽和画素値として取得される。なお、ステップS40からステップS44のフローの順番は図15に記載の順番に限られない。   First, in steps S40 to S44, the average values of the sensor values of the image input device 100a in the bright light intensity, the dark light intensity, and the saturated light intensity are the bright light intensity sensor pixel value, the dark light intensity sensor pixel value, and the sensor saturated pixel. Get as value. Note that the order of the flow from step S40 to step S44 is not limited to the order shown in FIG.

続いて、ステップS46では、算出部11(又は、図1に図示しない割当手段)が、画像入力装置100aに係るセンサ飽和画素値をTarget_Maxに、画像入力装置100aに係る暗光強度センサ画素値をTarget_Minに割り当てる。   Subsequently, in step S46, the calculation unit 11 (or an assigning unit (not shown in FIG. 1)) sets the sensor saturation pixel value related to the image input device 100a to Target_Max, and the dark light intensity sensor pixel value related to the image input device 100a. Assign to Target_Min.

そして、ステップS48では、算出部11が、画像入力装置100aに係る、センサ飽和画素値、明光強度センサ画素値、及び暗光強度センサ画素値、さらにTarget_Max及びTarget_Minを記録部10から読み出し、上記 (4)、(5) 式に基づいてTarget_Midを算出する。   In step S48, the calculation unit 11 reads out the sensor saturation pixel value, the bright light intensity sensor pixel value, the dark light intensity sensor pixel value, and Target_Max and Target_Min from the recording unit 10 according to the image input device 100a. Calculate Target_Mid based on equations (4) and (5).

次に、ステップS50、52では、画像入力装置100bの明光強度、及び暗光強度におけるセンサ値の平均値が取得される。なお、ステップS50、52のフローの順番は図15に記載の順番に限られない。また、ステップS50、52の動作は、ステップS40からステップS48までの動作よりも先に、あるいは同時に行われてもよい。   Next, in steps S50 and 52, the average values of the sensor values in the bright light intensity and the dark light intensity of the image input device 100b are acquired. Note that the order of the steps S50 and S52 is not limited to the order shown in FIG. Further, the operations in steps S50 and S52 may be performed prior to or simultaneously with the operations from step S40 to step S48.

最後に、マッピング部13が、Target_Midと、画像入力装置100bの明光強度センサ画素値及び暗光強度センサ画素値とを記録部10から、Target_Minを設定部12から、それぞれ読み出す。そして、マッピング部13は、画像入力装置100bの明光強度センサ画素値をTarget_Midに、暗光強度センサ画素値をTarget_Minに、それぞれマッピングする。   Finally, the mapping unit 13 reads the Target_Mid and the bright light intensity sensor pixel value and the dark light intensity sensor pixel value of the image input device 100b from the recording unit 10 and the Target_Min from the setting unit 12, respectively. Then, the mapping unit 13 maps the bright light intensity sensor pixel value of the image input device 100b to Target_Mid and the dark light intensity sensor pixel value to Target_Min.

上記動作により、画像入力装置100bの明光強度センサ画素値及び暗光強度センサ画素値はそれぞれ、Target_Mid及びTarget_Minにキャリブレーションされる。そして、キャリブレーションの対象が画像入力装置100cであっても、同様のキャリブレーション結果がもたらされる。   With the above operation, the bright light intensity sensor pixel value and the dark light intensity sensor pixel value of the image input device 100b are calibrated to Target_Mid and Target_Min, respectively. Even if the calibration target is the image input device 100c, the same calibration result is obtained.

次に、キャリブレーション装置60によるキャリブレーションによって得られる効果を説明する。   Next, effects obtained by calibration by the calibration device 60 will be described.

上記の構成によれば、キャリブレーション装置60では、画像入力装置100aに係る、センサ飽和画素値、明光強度センサ画素値、及び暗光強度センサ画素値と、Target_Max及びTarget_Minとに基づいて、画像入力装置100aの明光強度センサ画素値に対する画素値としてTarget_Midが算出される。   According to the above configuration, the calibration device 60 performs image input based on the sensor saturation pixel value, the bright light intensity sensor pixel value, the dark light intensity sensor pixel value, and Target_Max and Target_Min related to the image input device 100a. Target_Mid is calculated as the pixel value for the bright light intensity sensor pixel value of the device 100a.

つまり、基準画像入力装置である画像入力装置100aを定めることにより、そのセンサ飽和画素値、明光強度センサ画素値、及び暗光強度センサ画素値と、Target_Max及びTarget_Minとに基づいてTarget_Midが算出されるため、画像入力装置100bとは無関係にTarget_Midが取得される。   That is, by determining the image input device 100a that is the reference image input device, Target_Mid is calculated based on the sensor saturation pixel value, the bright light intensity sensor pixel value, the dark light intensity sensor pixel value, and Target_Max and Target_Min. Therefore, Target_Mid is acquired regardless of the image input device 100b.

そして、マッピング部13が、画像入力装置100bのキャリブレーション後の画素値として、明光強度センサ画素値、及び暗光強度センサ画素値に対して、Target_Mid、及びTarget_Minを、それぞれ割り当てる。   Then, the mapping unit 13 assigns Target_Mid and Target_Min to the bright light intensity sensor pixel value and the dark light intensity sensor pixel value, respectively, as the pixel values after calibration of the image input device 100b.

従って、画像入力装置100bをキャリブレーションする際に、画像入力装置100bの特性を考慮する必要がない。同様に画像入力装置100cをキャリブレーションする際に、画像入力装置100cの特性を考慮する必要がない。つまり、キャリブレーションする画像入力装置ごとにパラメータを個別に設定・変更する必要性がない。   Therefore, it is not necessary to consider the characteristics of the image input device 100b when calibrating the image input device 100b. Similarly, it is not necessary to consider the characteristics of the image input device 100c when calibrating the image input device 100c. That is, there is no need to individually set / change parameters for each image input device to be calibrated.

このように、キャリブレーション装置60では、代表的に選択された画像入力装置100aに基づいて画像入力装置100bあるいは画像入力装置100cのキャリブレーションを行うため、キャリブレーションに要する時間と手間を大幅に削減しつつ、複数のイメージセンサから出力される画素値のばらつきを統一することができる。なお、画像入力装置100a自身もキャリブレーションの対象とすることができるのは勿論のことである。   As described above, since the calibration of the image input device 100b or the image input device 100c is performed based on the representatively selected image input device 100a, the calibration device 60 greatly reduces the time and labor required for calibration. However, variations in pixel values output from a plurality of image sensors can be unified. It goes without saying that the image input apparatus 100a itself can also be a calibration target.

最後に、キャリブレーション装置50・60の各ブロック、特に算出部11およびマッピング部13は、ハードウェアロジックによって構成してもよいし、次のようにCPUを用いてソフトウェアによって実現してもよい。   Finally, each block of the calibration devices 50 and 60, in particular, the calculation unit 11 and the mapping unit 13 may be configured by hardware logic, or may be realized by software using a CPU as follows.

すなわち、キャリブレーション装置50・60は、各機能を実現する制御プログラムの命令を実行するCPU(central processing unit)、上記プログラムを格納したROM(read only memory)、上記プログラムを展開するRAM(random access memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアであるキャリブレーション装置50・60の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記キャリブレーション装置50・60に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。   That is, the calibration devices 50 and 60 include a CPU (central processing unit) that executes instructions of a control program for realizing each function, a ROM (read only memory) that stores the program, and a RAM (random access) that expands the program. memory), a storage device (recording medium) such as a memory for storing the program and various data. An object of the present invention is a record in which the program code (execution format program, intermediate code program, source program) of the control program of the calibration devices 50 and 60, which is software that implements the functions described above, is recorded so as to be readable by a computer. This can also be achieved by supplying the medium to the calibration devices 50 and 60 and reading and executing the program code recorded on the recording medium by the computer (or CPU or MPU).

上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などを用いることができる。   Examples of the recording medium include tapes such as magnetic tapes and cassette tapes, magnetic disks such as floppy (registered trademark) disks / hard disks, and disks including optical disks such as CD-ROM / MO / MD / DVD / CD-R. Card system such as IC card, IC card (including memory card) / optical card, or semiconductor memory system such as mask ROM / EPROM / EEPROM / flash ROM.

また、キャリブレーション装置50・60を通信ネットワークと接続可能に構成し、上記プログラムコードを通信ネットワークを介して供給してもよい。この通信ネットワークとしては、特に限定されず、例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、通信ネットワークを構成する伝送媒体としては、特に限定されず、例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。   Further, the calibration devices 50 and 60 may be configured to be connectable to a communication network, and the program code may be supplied via the communication network. The communication network is not particularly limited. For example, the Internet, intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network, telephone line network, mobile communication network, satellite communication. A net or the like is available. Also, the transmission medium constituting the communication network is not particularly limited. For example, even in the case of wired such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL line, etc., infrared rays such as IrDA and remote control, Bluetooth ( (Registered trademark), 802.11 wireless, HDR, mobile phone network, satellite line, terrestrial digital network, and the like can also be used. The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.

なお、本発明は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。すなわち、請求項に示した範囲で適宜変更した技術的手段を組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   In addition, this invention is not limited to embodiment mentioned above, A various change is possible in the range shown to the claim. That is, embodiments obtained by combining technical means appropriately modified within the scope of the claims are also included in the technical scope of the present invention.

本発明は、イメージセンサから出力される画素値をキャリブレーションすることにより、複数のイメージセンサから出力される画素値のばらつきを統一するキャリブレーション装置に関し、特に、そのようなキャリブレーション装置を備えた画像入力装置に好適である。   The present invention relates to a calibration device that unifies variations in pixel values output from a plurality of image sensors by calibrating pixel values output from an image sensor, and particularly includes such a calibration device. It is suitable for an image input device.

10 記録部
11 算出部(算出手段)
12 設定部
13 マッピング部(割当手段)
50、60 キャリブレーション装置
100、100a〜100c 画像入力装置
101a〜101c 平均出力特性曲線
10 Recording unit 11 Calculation unit (calculation means)
12 Setting part 13 Mapping part (assignment means)
50, 60 Calibration device 100, 100a to 100c Image input device 101a to 101c Average output characteristic curve

Claims (10)

複数のイメージセンサから出力される画素値を、同一の光強度に対して同一の画素値に統一するキャリブレーション装置であって、
前記複数のイメージセンサのうち、キャリブレーションするイメージセンサを対象イメージセンサ、代表的に選択されたイメージセンサを基準イメージセンサとし、また、暗条件下の光強度を第1光強度、その第1光強度よりも高い2つの光強度を、光強度の低い順に第2及び第3光強度とした場合に、
前記基準イメージセンサの前記第1及び第3光強度に対する画素値として、第1割当画素値、及び前記第1割当画素値よりも大きい第3割当画素値を、それぞれ割り当てる第1割当手段と、
前記第1〜第3光強度に対する前記基準イメージセンサの画素値である第1〜第3基準画素値と、前記第1及び第3割当画素値とに基づいて、前記基準イメージセンサの前記第2光強度に対する画素値として擬制画素値を算出する算出手段と、
前記対象イメージセンサのキャリブレーション後の画素値として、前記第1及び第2光強度に対して、前記第1割当画素値、及び前記擬制画素値を、それぞれ割り当てる第2割当手段と、を備えることを特徴とするキャリブレーション装置。
A calibration device that unifies pixel values output from a plurality of image sensors to the same pixel value for the same light intensity,
Among the plurality of image sensors, an image sensor to be calibrated is a target image sensor, a representatively selected image sensor is a reference image sensor, a light intensity under dark conditions is a first light intensity, and the first light. In the case where the two light intensities higher than the intensity are the second and third light intensities in order of increasing light intensity,
First allocation means for allocating a first allocated pixel value and a third allocated pixel value larger than the first allocated pixel value as pixel values for the first and third light intensities of the reference image sensor;
Based on the first to third reference pixel values, which are pixel values of the reference image sensor for the first to third light intensities, and the first and third assigned pixel values, the second of the reference image sensor. Calculating means for calculating a pseudo pixel value as a pixel value with respect to light intensity;
Second allocating means for allocating the first allocated pixel value and the pseudo-controlled pixel value to the first and second light intensities as pixel values after calibration of the target image sensor, respectively. A calibration device characterized by the above.
複数のイメージセンサから出力される画素値を、同一の光強度に対して同一の画素値に統一するキャリブレーション装置であって、
前記複数のイメージセンサのうち、キャリブレーションするイメージセンサを対象イメージセンサ、代表的に選択されたイメージセンサを基準イメージセンサとし、また、暗条件下の光強度を第1光強度、その第1光強度よりも高い2つの光強度を、光強度の低い順に第2及び第3光強度とした場合に、
前記第1〜第3光強度に対する前記基準イメージセンサの画素値である第1〜第3基準画素値と、前記第1及び第2光強度に対する前記対象イメージセンサの画素値である第1及び第2対象画素値とに基いて、前記第3光強度に対する前記対象イメージセンサの画素値として擬制画素値を算出する算出手段と、
前記対象イメージセンサのキャリブレーション後の画素値として、前記第1及び第3光強度に対して、第1割当画素値、及び前記第1割当画素値よりも大きい第3割当画素値を設定すると共に、前記第1対象画素値を前記第1割当画素値に、前記擬制画素値を前記第3割当画素値に、それぞれ割り当てる割当手段と、を備えることを特徴とするキャリブレーション装置。
A calibration device that unifies pixel values output from a plurality of image sensors to the same pixel value for the same light intensity,
Among the plurality of image sensors, an image sensor to be calibrated is a target image sensor, a representatively selected image sensor is a reference image sensor, a light intensity under dark conditions is a first light intensity, and the first light. In the case where the two light intensities higher than the intensity are the second and third light intensities in order of increasing light intensity,
First to third reference pixel values that are pixel values of the reference image sensor for the first to third light intensities, and first and first pixel values of the target image sensor for the first and second light intensities. Calculating means for calculating a pseudo pixel value as a pixel value of the target image sensor for the third light intensity based on two target pixel values;
As a pixel value after calibration of the target image sensor, a first assigned pixel value and a third assigned pixel value larger than the first assigned pixel value are set for the first and third light intensities. And a allocating means for allocating the first target pixel value to the first allocated pixel value and the pseudo control pixel value to the third allocated pixel value, respectively.
前記算出手段は、式(A)によって前記擬制画素値を算出することを特徴とする請求項1に記載のキャリブレーション装置。
y={x2×(Z1−y1)+z2×(y1−x1) }/(z1−x1) …(A)
ただし、
y :基準イメージセンサの擬制画素値
x1:基準イメージセンサの第1基準画素値
y1:基準イメージセンサの第2基準画素値
z1:基準イメージセンサの第3基準画素値
x2:基準イメージセンサの第1割当画素値
z2:基準イメージセンサの第3割当画素値
とする。
The calibration apparatus according to claim 1, wherein the calculation unit calculates the pseudo pixel value according to an expression (A).
y = {x2 * (Z1-y1) + z2 * (y1-x1)} / (z1-x1) (A)
However,
y: pseudo pixel value of the reference image sensor x1: first reference pixel value of the reference image sensor y1: second reference pixel value of the reference image sensor z1: third reference pixel value of the reference image sensor x2: first of the reference image sensor Assigned pixel value z2: The third assigned pixel value of the reference image sensor.
前記算出手段は、式(B)によって前記擬制画素値を算出することを特徴とする請求項2に記載のキャリブレーション装置。
z={x2×(y1−Z1)+y2×(z1−x1) }/(y1−x1) …(B)
ただし、
z :対象イメージセンサの擬制画素値
x1:基準イメージセンサの第1基準画素値
y1:基準イメージセンサの第2基準画素値
z1:基準イメージセンサの第3基準画素値
x2:対象イメージセンサの第1対象画素値
y2:対象イメージセンサの第2対象画素値
とする。
The calibration apparatus according to claim 2, wherein the calculation unit calculates the pseudo pixel value according to an expression (B).
z = {x2 * (y1-Z1) + y2 * (z1-x1)} / (y1-x1) (B)
However,
z: pseudo control pixel value of target image sensor x1: first reference pixel value of reference image sensor y1: second reference pixel value of reference image sensor z1: third reference pixel value of reference image sensor x2: first of target image sensor Target pixel value y2: The second target pixel value of the target image sensor.
イメージセンサに入射する光の強度と、その光の強度に対してイメージセンサから出力される画素値との関係を示した平均出力特性曲線において、光の強度の変化に対して画素値が相関性をもって変化する光強度域と、それよりも高い光強度域との境となる光強度を飽和光強度とした場合に、前記第3光強度は、前記基準イメージセンサの飽和光強度であることを特徴とする請求項1から4の何れか1項に記載のキャリブレーション装置。   In the average output characteristic curve showing the relationship between the intensity of light incident on the image sensor and the pixel value output from the image sensor with respect to the intensity of the light, the pixel value correlates with the change in light intensity. The third light intensity is the saturated light intensity of the reference image sensor when the light intensity that is the boundary between the light intensity region that changes with the light intensity region and the light intensity region that is higher than the light intensity region is defined as the saturated light intensity. The calibration apparatus according to claim 1, wherein the calibration apparatus is characterized in that: 前記第1及び第3割当画素値はそれぞれ、任意に決定されることを特徴とする請求項1から5の何れか1項に記載のキャリブレーション装置。   6. The calibration apparatus according to claim 1, wherein each of the first and third assigned pixel values is arbitrarily determined. 複数のイメージセンサから出力される画素値を、同一の光強度に対して同一の画素値に統一するキャリブレーション方法であって、
前記複数のイメージセンサのうち、キャリブレーションするイメージセンサを対象イメージセンサ、代表的に選択されたイメージセンサを基準イメージセンサとし、また、暗条件下の光強度を第1光強度、その第1光強度よりも高い2つの光強度を、光強度の低い順に第2及び第3光強度とした場合に、
前記基準イメージセンサの前記第1及び第3光強度に対する画素値として、第1割当画素値、及び前記第1割当画素値よりも大きい第3割当画素値を、それぞれ割り当てる第1割当ステップと、
前記第1〜第3光強度に対する前記基準イメージセンサの画素値である第1〜第3基準画素値と、前記第1及び第3割当画素値とに基づいて、前記基準イメージセンサの前記第2光強度に対する画素値として擬制画素値を算出する算出ステップと、
前記対象イメージセンサのキャリブレーション後の画素値として、前記第1及び第2光強度に対して、前記第1割当画素値、及び前記擬制画素値を、それぞれ割り当てる第2割当ステップと、を含むことを特徴とするキャリブレーション方法。
A calibration method for unifying pixel values output from a plurality of image sensors to the same pixel value for the same light intensity,
Among the plurality of image sensors, an image sensor to be calibrated is a target image sensor, a representatively selected image sensor is a reference image sensor, a light intensity under dark conditions is a first light intensity, and the first light. In the case where the two light intensities higher than the intensity are the second and third light intensities in order of increasing light intensity,
A first assignment step of assigning a first assigned pixel value and a third assigned pixel value larger than the first assigned pixel value as pixel values for the first and third light intensities of the reference image sensor;
Based on the first to third reference pixel values, which are pixel values of the reference image sensor for the first to third light intensities, and the first and third assigned pixel values, the second of the reference image sensor. A calculation step of calculating an artificial pixel value as a pixel value with respect to light intensity;
A second assignment step of assigning the first assigned pixel value and the pseudo-predicted pixel value to the first and second light intensities as pixel values after calibration of the target image sensor, respectively. A calibration method characterized by
複数のイメージセンサから出力される画素値を、同一の光強度に対して同一の画素値に統一するキャリブレーションプログラムであって、
前記複数のイメージセンサのうち、キャリブレーションするイメージセンサを対象イメージセンサ、代表的に選択されたイメージセンサを基準イメージセンサとし、また、暗条件下の光強度を第1光強度、その第1光強度よりも高い2つの光強度を、光強度の低い順に第2及び第3光強度とした場合に、
前記基準イメージセンサの前記第1及び第3光強度に対する画素値として、第1割当画素値、及び前記第1割当画素値よりも大きい第3割当画素値を、それぞれ割り当てる第1割当ステップと、
前記第1〜第3光強度に対する前記基準イメージセンサの画素値である第1〜第3基準画素値と、前記第1及び第3割当画素値とに基づいて、前記基準イメージセンサの前記第2光強度に対する画素値として擬制画素値を算出する算出ステップと、
前記対象イメージセンサのキャリブレーション後の画素値として、前記第1及び第2光強度に対して、前記第1割当画素値、及び前記擬制画素値を、それぞれ割り当てる第2割当ステップと、をコンピュータに実行させるためのキャリブレーションプログラム。
A calibration program that unifies pixel values output from a plurality of image sensors to the same pixel value for the same light intensity,
Among the plurality of image sensors, an image sensor to be calibrated is a target image sensor, a representatively selected image sensor is a reference image sensor, a light intensity under dark conditions is a first light intensity, and the first light. In the case where the two light intensities higher than the intensity are the second and third light intensities in order of increasing light intensity,
A first assignment step of assigning a first assigned pixel value and a third assigned pixel value larger than the first assigned pixel value as pixel values for the first and third light intensities of the reference image sensor;
Based on the first to third reference pixel values, which are pixel values of the reference image sensor for the first to third light intensities, and the first and third assigned pixel values, the second of the reference image sensor. A calculation step of calculating an artificial pixel value as a pixel value with respect to light intensity;
A second assignment step of assigning the first assigned pixel value and the pseudo-pixel value to the first and second light intensities as pixel values after calibration of the target image sensor, to a computer; Calibration program to be executed.
請求項8に記載のキャリブレーションプログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium on which the calibration program according to claim 8 is recorded. 請求項1〜6の何れか1項に記載のキャリブレーション装置を備えることを特徴とする画像入力装置。   An image input device comprising the calibration device according to claim 1.
JP2009054233A 2009-03-06 2009-03-06 Calibration device, calibration method, calibration program, computer-readable recording medium, and image input device Pending JP2010212814A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009054233A JP2010212814A (en) 2009-03-06 2009-03-06 Calibration device, calibration method, calibration program, computer-readable recording medium, and image input device
CN201010123162.6A CN101827222A (en) 2009-03-06 2010-03-02 Correction device, correction method and image input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009054233A JP2010212814A (en) 2009-03-06 2009-03-06 Calibration device, calibration method, calibration program, computer-readable recording medium, and image input device

Publications (1)

Publication Number Publication Date
JP2010212814A true JP2010212814A (en) 2010-09-24

Family

ID=42690893

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009054233A Pending JP2010212814A (en) 2009-03-06 2009-03-06 Calibration device, calibration method, calibration program, computer-readable recording medium, and image input device

Country Status (2)

Country Link
JP (1) JP2010212814A (en)
CN (1) CN101827222A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105427449A (en) * 2015-10-30 2016-03-23 新达通科技股份有限公司 Bank note image optical compensation correction method, bank note testing identification device, and ATM
WO2020119132A1 (en) * 2018-12-13 2020-06-18 Boe Technology Group Co., Ltd. Method of driving pixel arrangement structure having plurality of subpixels, driving chip for driving pixel arrangement structure having plurality of subpixels, display apparatus, and computer-program product
US11233096B2 (en) 2016-02-18 2022-01-25 Boe Technology Group Co., Ltd. Pixel arrangement structure and driving method thereof, display substrate and display device
US11448807B2 (en) 2016-02-18 2022-09-20 Chengdu Boe Optoelectronics Technology Co., Ltd. Display substrate, fine metal mask set and manufacturing method thereof
US11735108B2 (en) 2019-07-31 2023-08-22 Boe Technology Group Co., Ltd. Display substrate and preparation method thereof, display panel, and display device
US11747531B2 (en) 2016-02-18 2023-09-05 Chengdu Boe Optoelectronics Technology Co., Ltd. Display substrate, fine metal mask set and manufacturing method thereof
US12310182B2 (en) 2019-07-31 2025-05-20 Boe Technology Group Co., Ltd. Display substrate and display device with spacers

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103108107A (en) * 2013-03-05 2013-05-15 广州广电运通金融电子股份有限公司 Image processing device and image data correcting method thereof
CN103280187B (en) * 2013-06-09 2015-12-23 上海和辉光电有限公司 Pixel arrangement display method and device and OLED display
CN106302912B (en) * 2016-08-17 2019-06-04 青岛海信移动通信技术股份有限公司 Method for calibrating light-sensing characteristic curve in mobile terminal and mobile terminal
CN106840384B (en) * 2016-12-05 2019-04-26 欧普照明股份有限公司 The bearing calibration of means for correcting and the application means for correcting

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0563977A (en) * 1991-08-30 1993-03-12 Mitsubishi Electric Corp Image sensor
JP2002084403A (en) * 2000-09-11 2002-03-22 Ricoh Co Ltd Image reading device
JP2003000576A (en) * 2001-06-19 2003-01-07 Canon Inc Image processing apparatus and image processing method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002084404A (en) * 2000-09-11 2002-03-22 Sharp Corp Double-sided document reader
JP5038031B2 (en) * 2006-07-11 2012-10-03 キヤノン株式会社 Radiography apparatus, driving method thereof and radiation imaging system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0563977A (en) * 1991-08-30 1993-03-12 Mitsubishi Electric Corp Image sensor
JP2002084403A (en) * 2000-09-11 2002-03-22 Ricoh Co Ltd Image reading device
JP2003000576A (en) * 2001-06-19 2003-01-07 Canon Inc Image processing apparatus and image processing method

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105427449A (en) * 2015-10-30 2016-03-23 新达通科技股份有限公司 Bank note image optical compensation correction method, bank note testing identification device, and ATM
US11747531B2 (en) 2016-02-18 2023-09-05 Chengdu Boe Optoelectronics Technology Co., Ltd. Display substrate, fine metal mask set and manufacturing method thereof
US12196988B2 (en) 2016-02-18 2025-01-14 Chengdu Boe Optoelectronics Technology Co., Ltd. Display substrate and display device
US12058910B2 (en) 2016-02-18 2024-08-06 Boe Technology Group Co., Ltd. Pixel arrangement structure and driving method thereof, display substrate and display device
US11233096B2 (en) 2016-02-18 2022-01-25 Boe Technology Group Co., Ltd. Pixel arrangement structure and driving method thereof, display substrate and display device
US11448807B2 (en) 2016-02-18 2022-09-20 Chengdu Boe Optoelectronics Technology Co., Ltd. Display substrate, fine metal mask set and manufacturing method thereof
US12001035B2 (en) 2016-02-18 2024-06-04 Chengdu Boe Optoelectronics Technology Co., Ltd. Display substrate and display device
US11238816B2 (en) 2018-12-13 2022-02-01 Boe Technology Group Co., Ltd. Method of driving pixel arrangement structure by deriving actual data signal based on theoretical data signal, driving chip display apparatus, and computer-program product thereof
US11545099B2 (en) 2018-12-13 2023-01-03 Beijing Boe Technology Development Co., Ltd. Display apparatus having driving circuit for deriving actual data signal based on theoretical data signal
KR102479278B1 (en) 2018-12-13 2022-12-20 보에 테크놀로지 그룹 컴퍼니 리미티드 Method for driving a pixel array structure having a plurality of subpixels, driving chip for driving a pixel array structure having a plurality of subpixels, display device, and computer program product
KR20210005290A (en) * 2018-12-13 2021-01-13 보에 테크놀로지 그룹 컴퍼니 리미티드 A method for driving a pixel array structure having a plurality of subpixels, a driving chip for driving a pixel array structure having a plurality of subpixels, a display device, and a computer program product
WO2020119132A1 (en) * 2018-12-13 2020-06-18 Boe Technology Group Co., Ltd. Method of driving pixel arrangement structure having plurality of subpixels, driving chip for driving pixel arrangement structure having plurality of subpixels, display apparatus, and computer-program product
US11735108B2 (en) 2019-07-31 2023-08-22 Boe Technology Group Co., Ltd. Display substrate and preparation method thereof, display panel, and display device
US11908410B2 (en) 2019-07-31 2024-02-20 Boe Technology Group Co., Ltd. Display substrate and preparation method thereof, display panel, and display device
US12300179B2 (en) 2019-07-31 2025-05-13 Boe Technology Group Co., Ltd. Display substrate and preparation method thereof, display panel, and display device
US12310182B2 (en) 2019-07-31 2025-05-20 Boe Technology Group Co., Ltd. Display substrate and display device with spacers

Also Published As

Publication number Publication date
CN101827222A (en) 2010-09-08

Similar Documents

Publication Publication Date Title
JP2010212814A (en) Calibration device, calibration method, calibration program, computer-readable recording medium, and image input device
US11842708B2 (en) Display with localized brightness adjustment capabilities
JP5014439B2 (en) Display device with optical sensor
WO2020228580A1 (en) Display method, display device, and computer storage medium
EP3958250B1 (en) Method and device for compensating luminance deviation and display device using the same
US20160261860A1 (en) Displays with Unit-Specific Display Identification Data
US20110187687A1 (en) Display apparatus, display method, program, and storage medium
US20100271335A1 (en) Display device having optical sensors
JP4475321B2 (en) Display device
JP2010092340A (en) Image display/image detection apparatus, image display method, image display program, and recording medium with program recorded thereon
US11798460B2 (en) Electronic devices with display aging compensation
CN111380610A (en) Ambient light detection method and apparatus, electronic device, and storage medium
JP2010108303A (en) Image detection/display device
US20230186837A1 (en) Display device and control method therefor
JP5122405B2 (en) CALIBRATION DEVICE, CALIBRATION METHOD, SENSOR DEVICE, DISPLAY DEVICE, CALIBRATION PROCESSING PROGRAM, AND RECORDING MEDIUM CONTAINING CALIBRATION PROCESSING PROGRAM
CN111816129B (en) Display control parameter determination method, device and computer readable storage medium
JP2010122972A (en) Image display/detection device, selection method, and program
CN109254677A (en) Display device and method for sensing touch signal using the same
CN115931117A (en) Environment light detection method, device, equipment and storage medium
JP2010109467A (en) Image display/image detection apparatus
JP2010072103A (en) Image display, image display method, image display processing program, and computer readable recording medium with image display processing program recorded thereon
JP2010118015A (en) Numerical value input device, numerical value input method, numerical value input program, and computer-readable recording medium
JP2010204945A (en) Input device and input method
JP4987824B2 (en) Calibration device, calibration method, calibration program, computer-readable recording medium, sensor device, and display device
WO2011074292A1 (en) Display device, display method, display program, recording medium

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101116

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110315