[go: up one dir, main page]

JP2010103949A - Apparatus, method and program for photographing - Google Patents

Apparatus, method and program for photographing Download PDF

Info

Publication number
JP2010103949A
JP2010103949A JP2008275928A JP2008275928A JP2010103949A JP 2010103949 A JP2010103949 A JP 2010103949A JP 2008275928 A JP2008275928 A JP 2008275928A JP 2008275928 A JP2008275928 A JP 2008275928A JP 2010103949 A JP2010103949 A JP 2010103949A
Authority
JP
Japan
Prior art keywords
distance
feature points
image
unit
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2008275928A
Other languages
Japanese (ja)
Inventor
Kenji Imamura
賢司 今村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2008275928A priority Critical patent/JP2010103949A/en
Publication of JP2010103949A publication Critical patent/JP2010103949A/en
Ceased legal-status Critical Current

Links

Landscapes

  • Lens Barrels (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)

Abstract

【課題】 従来よりも簡易に複眼レンズのズーム位置の設定ばらつきを調整する。
【解決手段】各視点画像SR,SLの一方から求められた特徴点間の距離(特徴点間距離)と、画像SR,SLの他方から求められた対応点間の距離(対応点間距離)とを比較し、両者が実質的に一致するか否かを判断する。Noならば、一方または双方の撮像系のズーム位置を微調整することで、両撮像系の画像から求めた2点間の距離を実質的に一致させるようにする。
【選択図】 図9
PROBLEM TO BE SOLVED: To adjust a setting variation of a zoom position of a compound eye lens more easily than before.
A distance between feature points obtained from one of viewpoint images SR and SL (distance between feature points) and a distance between corresponding points obtained from the other of images SR and SL (distance between corresponding points). And determine whether or not they substantially match. If No, the zoom position of one or both imaging systems is finely adjusted so that the distance between the two points obtained from the images of both imaging systems is substantially matched.
[Selection] Figure 9

Description

本発明は、多視点画像を撮影する装置のズーム倍率調整技術に関する。   The present invention relates to a zoom magnification adjustment technique for an apparatus that captures a multi-viewpoint image.

特許文献1では、撮影系を複眼撮像系に組み込んだ後に、撮影系間にて生じている誤差を、例えば、それぞれの撮影系にてあるチャートを、焦点距離・被写体距離・輻輳角を一定の組み合わせにて変化させながら撮影し、撮影した時の出力画像を読み取り、その読み取り結果から、撮影系の光軸ズレや倍率ズレを測定し、その測定値をマトリクス的に記憶手段に書き込む。記憶手段は、送られてきた情報信号に対する記憶データを信号処理回路に送り返す。信号処理回路では、送られてきた記憶データにより、二つ画像信号でのレジストレーションずれを補正することにより二つの画像を合成し、処理された合成画像信号が記録手段及び外部への出力手段へと出力される。これにより、使用した複数の撮影レンズ間の焦点距離、Fナンバー、撮影レンズ光軸角などがばらつきによって異なる場合にも、各撮影レンズ間の差を簡単に補正できるとする。   In Japanese Patent Laid-Open No. 2004-260688, after an imaging system is incorporated into a compound-eye imaging system, errors occurring between the imaging systems, for example, a chart in each imaging system, a focal length, a subject distance, and a convergence angle are fixed. Shooting while changing the combination, read the output image at the time of shooting, measure the optical axis shift and magnification shift of the shooting system from the read result, and write the measured values to the storage means in a matrix. The storage means sends back the stored data corresponding to the transmitted information signal to the signal processing circuit. The signal processing circuit synthesizes the two images by correcting the registration deviation in the two image signals based on the stored data sent, and the processed composite image signal is output to the recording means and the output means to the outside. Is output. As a result, even when the focal length, the F number, the optical axis angle of the photographic lens, and the like between the plurality of photographic lenses used vary due to variations, the difference between the photographic lenses can be easily corrected.

特許文献2では、左右一対に配置された2つのズームレンズのうち、一方のズームレンズ(マスター側)はズームスイッチの操作により直接モータドライバを制御して変倍レンズをテレ方向又はワイド方向に駆動し、他方のズームレンズ(スレーブ側)は、差動アンプ及びコンパレータによって生成されるズーム位置誤差電圧(変倍レンズと変倍レンズの位置の誤差量を示す電圧)に応じた制御信号によってモータドライバを制御し、その誤差量を小さくする方向に第2の変倍レンズを駆動するようにしている。左右何れか一方のズームレンズをマスター側とし、他方をスレーブ側として、マスター側の変倍レンズの動きにスレーブ側の変倍レンズを追従させることにより、左右の焦点距離を高精度に一致させることができるとする。   In Patent Document 2, of two zoom lenses arranged in a pair of left and right, one zoom lens (master side) directly controls the motor driver by operating the zoom switch to drive the zoom lens in the tele direction or the wide direction. The other zoom lens (slave side) is driven by a control signal corresponding to the zoom position error voltage (voltage indicating the error amount between the zoom lens and the zoom lens) generated by the differential amplifier and comparator. And the second variable power lens is driven in a direction to reduce the error amount. Either the left or right zoom lens is the master side, and the other is the slave side. By making the slave-side zoom lens follow the movement of the master-side zoom lens, the left and right focal lengths are matched with high accuracy. Suppose you can.

特許文献3では、左右のズームレンズのズーム位置を、変倍レンズの位置として位置検出器によりそれぞれ検出し、該ズーム位置データをADコンバータによってデジタル化した後、LUTによって補正する。LUTは、入力する信号のデジタル値に応じた出力値を予め記憶した入出力変換テーブルであって、位置検出器の出力特性を直線性のある基準ズーム関数に一致させる。左右のズーム位置を検出する位置検出器のうちの少なくとも一方のズーム位置データをルックアップテーブルで補正し、両者の出力特性の均一化を図ることにより、左右の撮影倍率を高精度に一致させることができるとする。   In Patent Document 3, the zoom positions of the left and right zoom lenses are respectively detected by a position detector as the position of a zoom lens, and the zoom position data is digitized by an AD converter and then corrected by an LUT. The LUT is an input / output conversion table in which an output value corresponding to a digital value of an input signal is stored in advance, and matches the output characteristic of the position detector with a linear reference zoom function. By correcting the zoom position data of at least one of the position detectors that detect the left and right zoom positions with a look-up table and making the output characteristics of both uniform, the left and right shooting magnifications can be matched with high accuracy. Suppose you can.

その他、本願発明に関連する先行技術として、特許文献4〜9が挙げられる。
特開平7−87385号公報 特開平9−127400号公報 特開平9−187039号公報 特開平8−294143号公報 特開平9−153148号公報 特開2003−284098号公報 特開平5−28246号公報 特開平7−49944号公報 特開平7−336669号公報
In addition, patent documents 4-9 are mentioned as prior art relevant to this invention.
JP 7-87385 A JP-A-9-127400 Japanese Patent Laid-Open No. 9-187039 JP-A-8-294143 Japanese Patent Laid-Open No. 9-153148 JP 2003-284098 A Japanese Patent Laid-Open No. 5-28246 JP 7-49944 A JP-A-7-336669

立体撮影やパノラマ撮影を行うために複眼カメラで撮影を行う際に、搭載されたレンズがズームレンズを含む場合は、レンズの個体差のばらつきの他、ズーム位置変更の際の個々の撮像系の設定のばらつきも存在する。これらのばらつきを抑えるには、高精度な調整が必要である。   When shooting with a compound-eye camera to perform stereoscopic shooting or panoramic shooting, if the mounted lens includes a zoom lens, in addition to variations in individual lens differences, individual imaging systems when changing the zoom position There are also variations in settings. To suppress these variations, high-precision adjustment is necessary.

この点、特許文献1では、条件を変えて撮影を繰り返す必要があり煩雑であるし、設定ごとにばらつきが異なるようなズームレンズには対応できない。特許文献2では、ズーム位置に対する誤差検出電圧を高精度に調整する必要があり煩雑である。特許文献3では、ルックアップテーブルの作成のためカメラ固体ごとに高精度な調整の必要があり煩雑である。   In this respect, Patent Document 1 is complicated because it is necessary to repeat photographing under different conditions, and it is not possible to deal with a zoom lens in which variation varies for each setting. In Patent Document 2, it is necessary to adjust the error detection voltage with respect to the zoom position with high accuracy, which is complicated. In Patent Document 3, it is necessary to make a high-precision adjustment for each camera object for creating a lookup table, which is complicated.

本発明は、従来よりも簡易に複眼レンズのズーム位置の設定ばらつきを調整することを目的とする。   An object of the present invention is to adjust the setting variation of the zoom position of a compound eye lens more easily than in the past.

本発明に係る撮影装置は、2以上の視点から撮影された多視点画像を取得可能な撮影部と、撮影部の撮影した多視点画像のうち任意の1つの視点画像から、少なくとも1対の特徴点を抽出する特徴点抽出部と、撮影部の撮影した多視点画像のうち特徴点抽出部が特徴点を抽出した視点画像以外の視点画像から、少なくとも1対の特徴点に対応する少なくとも1対の対応点を抽出する対応点抽出部と、少なくとも1対の特徴点間の距離である特徴点間距離と、少なくとも1対の対応点間の距離である対応点間距離とを算出する距離算出部と、特徴点間距離と対応点間距離とが実質的に一致するように、撮影部のズーム倍率を制御する制御部と、を備える。   An imaging apparatus according to the present invention includes at least a pair of features from an imaging unit capable of acquiring multi-viewpoint images taken from two or more viewpoints and any one viewpoint image taken by the imaging unit. A feature point extraction unit that extracts points; and at least one pair corresponding to at least one pair of feature points from viewpoint images other than the viewpoint image from which the feature point extraction unit has extracted feature points among the multi-viewpoint images captured by the imaging unit. A corresponding point extraction unit that extracts the corresponding points, a distance calculation that calculates a distance between feature points that is a distance between at least one pair of feature points, and a distance between corresponding points that is a distance between at least one pair of corresponding points And a control unit that controls the zoom magnification of the photographing unit so that the distance between the feature points and the distance between the corresponding points substantially coincide with each other.

特徴点抽出部は、少なくとも2対の特徴点を抽出する。   The feature point extraction unit extracts at least two pairs of feature points.

特徴点抽出部は、撮像部の被写体距離および/またはズーム倍率に応じて少なくとも1対の特徴点を抽出する範囲を多視点画像の中央付近に制限する。   The feature point extraction unit limits a range in which at least one pair of feature points is extracted according to the subject distance and / or zoom magnification of the imaging unit to the vicinity of the center of the multi-viewpoint image.

ズーム倍率は光学ズームおよび/または電子ズームの倍率を含む。   The zoom magnification includes optical zoom and / or electronic zoom magnification.

特徴点抽出部が特徴点を抽出する多視点画像は本撮影前の任意のタイミングで取得されたスルー画を含む。   The multi-viewpoint image from which the feature point extraction unit extracts feature points includes a through image acquired at an arbitrary timing before the main photographing.

好適には、距離算出部が特徴点間距離を算出する特徴点間の線分は、撮影部の各視点の並ぶ方向と直交する。   Preferably, the line segment between the feature points for which the distance calculation unit calculates the distance between the feature points is orthogonal to the direction in which the viewpoints of the photographing unit are arranged.

本発明に係る撮影方法は、2以上の視点から撮影された多視点画像を取得する撮影部を備えた撮影装置が実行する撮影方法であって、撮影部の撮影した多視点画像のうち任意の1つの視点画像から、少なくとも1対の特徴点を抽出するステップと、撮影部の撮影した多視点画像のうち特徴点を抽出した視点画像以外の視点画像から、少なくとも1対の特徴点に対応する少なくとも1対の対応点を抽出するステップと、少なくとも1対の特徴点間の距離である特徴点間距離と、少なくとも1対の対応点間の距離である対応点間距離とを算出するステップと、特徴点間距離と対応点間距離とが実質的に一致するように、撮影部のズーム倍率を制御するステップと、を含む。   An imaging method according to the present invention is an imaging method executed by an imaging device including an imaging unit that acquires multi-view images captured from two or more viewpoints, and is an arbitrary one of multi-view images captured by the imaging unit. The step of extracting at least one pair of feature points from one viewpoint image, and at least one pair of feature points from viewpoint images other than the viewpoint image from which the feature points are extracted from the multi-viewpoint images captured by the photographing unit. Extracting at least one pair of corresponding points; calculating a distance between feature points that is a distance between at least one pair of feature points; and calculating a distance between corresponding points that is a distance between at least one pair of corresponding points; Controlling the zoom magnification of the photographing unit so that the distance between feature points and the distance between corresponding points substantially coincide.

この撮影方法を撮影装置に実行させるための撮影プログラムも本発明に含まれる。   An imaging program for causing the imaging apparatus to execute this imaging method is also included in the present invention.

本発明によると、異なる撮像系のズーム位置のばらつきが簡易に調整され、失敗画像の撮影を防止できる。   According to the present invention, variations in zoom positions of different imaging systems can be easily adjusted, and shooting of failed images can be prevented.

<第1実施形態>
以下、添付図面に従って本発明に係る撮影装置を実施するための最良の形態について説明する。
<First Embodiment>
The best mode for carrying out the photographing apparatus according to the present invention will be described below with reference to the accompanying drawings.

図1は、本発明の第一実施形態であるデジタルカメラの外観構成を示す正面斜視図である。図2は、本発明の第一実施形態であるデジタルカメラの外観構成を示す背面斜視図である。   FIG. 1 is a front perspective view showing an external configuration of a digital camera according to a first embodiment of the present invention. FIG. 2 is a rear perspective view showing the external configuration of the digital camera according to the first embodiment of the present invention.

本実施形態のデジタルカメラ10は、複数(図1では二つを例示)の撮像手段(撮像系ともいう)を備えたデジタルカメラ(本発明の複眼デジタルカメラに相当)であって、同一被写体を複数視点(図1では左右二つの視点を例示)から撮影可能となっている。   The digital camera 10 of the present embodiment is a digital camera (corresponding to the compound-eye digital camera of the present invention) provided with a plurality of (two are illustrated in FIG. 1) imaging means (also referred to as an imaging system). Images can be taken from a plurality of viewpoints (two left and right viewpoints are illustrated in FIG. 1).

なお、本実施形態では、説明の便宜のため二つの撮像手段を例示しているが、本発明はこれに限定されない。三つ以上の撮像手段であっても同様に適用可能である。なお、撮像手段(主として撮影レンズ14R、14L)の配置は、水平方向に沿った横一列でなくてもよく、二次元的に配置されていてもよい。立体撮影又はマルチ視点や全方向の撮影でもよい。   In the present embodiment, two imaging units are illustrated for convenience of explanation, but the present invention is not limited to this. Even three or more imaging means can be applied in the same manner. The arrangement of the imaging means (mainly the photographing lenses 14R and 14L) may not be one horizontal row along the horizontal direction, but may be two-dimensionally arranged. Stereo shooting, multi-viewpoint, or shooting in all directions may be used.

デジタルカメラ10のカメラボディ12は、矩形の箱状に形成されており、その正面には、図1に示すように、一対の撮影レンズ14R、14L、ストロボ16等が設けられている。また、カメラボディ12の上面には、シャッタボタン18、電源/モードスイッチ20、モードダイヤル22等が設けられている。   The camera body 12 of the digital camera 10 is formed in a rectangular box shape, and a pair of photographing lenses 14R and 14L, a strobe 16 and the like are provided on the front surface thereof as shown in FIG. On the upper surface of the camera body 12, a shutter button 18, a power / mode switch 20, a mode dial 22, and the like are provided.

一方、カメラボディ12の背面には、図2に示すように、モニタ24、ズームボタン26、十字ボタン28、MENU/OKボタン30、DISPボタン32、BACKボタン34、マクロボタン36等が設けられている。   On the other hand, as shown in FIG. 2, a monitor 24, a zoom button 26, a cross button 28, a MENU / OK button 30, a DISP button 32, a BACK button 34, a macro button 36, and the like are provided on the back of the camera body 12. Yes.

また、図示されていないが、カメラボディ12の底面には、三脚ネジ穴、開閉自在なバッテリカバー等が設けられており、バッテリカバーの内側には、バッテリを収納するためのバッテリ収納室、メモリカードを装着するためのメモリカードスロット等が設けられている。   Although not shown, the bottom of the camera body 12 is provided with a tripod screw hole, an openable / closable battery cover, and the like. A battery storage chamber for storing a battery, a memory is provided inside the battery cover. A memory card slot or the like for installing a card is provided.

左右一対の撮影レンズ14R、14Lは、それぞれ沈胴式のズームレンズで構成されており、マクロ撮影機能(近接撮影機能)を有している。この撮影レンズ14R、14Lは、それぞれデジタルカメラ10の電源をONすると、カメラボディ12から繰り出される。   Each of the pair of left and right photographing lenses 14R and 14L is constituted by a retractable zoom lens, and has a macro photographing function (proximity photographing function). The photographing lenses 14R and 14L are extended from the camera body 12 when the digital camera 10 is turned on.

なお、撮影レンズにおけるズーム機構や沈胴機構、マクロ撮影機構については、公知の技術なので、ここでは、その具体的な構成についての説明は省略する。   In addition, since the zoom mechanism, the retracting mechanism, and the macro photographing mechanism in the photographing lens are well-known techniques, description of the specific configuration is omitted here.

ストロボ16は、キセノン管で構成されており、暗い被写体を撮影する場合や逆光時などに必要に応じて発光される。   The strobe 16 is composed of a xenon tube, and emits light as necessary when shooting a dark subject or when backlit.

シャッタボタン18は、いわゆる「半押し」と「全押し」とからなる二段ストローク式のスイッチで構成されている。デジタルカメラ10は、静止画撮影時(例えば、モードダイヤル22で静止画撮影モード選択時、又はメニューから静止画撮影モード選択時)、このシャッタボタン18を半押しすると撮影準備処理、すなわち、AE(Automatic Exposure:自動露出)、AF(Auto Focus:自動焦点合わせ)、AWB(Automatic White Balance:自動ホワイトバランス)の各処理を行い、全押すると、画像の撮影・記録処理を行う。また、動画撮影時(例えば、モードダイヤル22で動画撮影モード選択時、又はメニューから動画撮影モード選択時)、このシャッタボタン18を全押すると、動画の撮影を開始し、再度全押しすると、撮影を終了する。なお、設定により、シャッタボタン18を全押している間、動画の撮影を行い、全押しを解除すると、撮影を終了するようにすることもできる。なお、静止画撮影専用のシャッタボタン及び動画撮影専用のシャッタボタンを設けるようにしてもよい。   The shutter button 18 is composed of a two-stroke switch that includes a so-called “half-press” and “full-press”. When the digital camera 10 shoots a still image (for example, when the still image shooting mode is selected with the mode dial 22 or when the still image shooting mode is selected from the menu), when the shutter button 18 is pressed halfway, a shooting preparation process, that is, AE ( Automatic exposure (AF), AF (auto focus), and AWB (automatic white balance) processing are performed, and when fully pressed, image capture / recording processing is performed. Also, during movie shooting (for example, when the movie shooting mode is selected with the mode dial 22 or when the movie shooting mode is selected from the menu), when the shutter button 18 is fully pressed, shooting of the movie is started, and when the shutter button 18 is fully pressed again, shooting is performed. Exit. Depending on the setting, the moving image can be shot while the shutter button 18 is fully pressed, and the shooting can be terminated when the full press is released. A shutter button dedicated to still image shooting and a shutter button dedicated to moving image shooting may be provided.

電源/モードスイッチ20は、デジタルカメラ10の電源スイッチとして機能するとともに、デジタルカメラ10の再生モードと撮影モードとを切り替える切替手段として機能し、「OFF位置」と「再生位置」と「撮影位置」の間をスライド自在に設けられている。デジタルカメラ10は、この電源/モードスイッチ20を「再生位置」に位置させると、再生モードに設定され、「撮影位置」に位置させると、撮影モードに設定される。また、「OFF位置」に位置させると、電源がOFFされる。   The power / mode switch 20 functions as a power switch of the digital camera 10 and also functions as a switching unit that switches between the playback mode and the shooting mode of the digital camera 10, and includes “OFF position”, “playback position”, and “shooting position”. It is slidably provided between the two. The digital camera 10 is set to the playback mode when the power / mode switch 20 is positioned at the “playback position”, and is set to the shooting mode when it is positioned at the “shooting position”. Further, when it is positioned at the “OFF position”, the power is turned off.

モードダイヤル22は、撮影モードの設定に用いられる。このモードダイヤル22は、カメラボディ12の上面に回転自在に設けられており、図示しないクリック機構によって、「2D静止画位置」、「2D動画位置」、「3D静止画位置」、「3D動画位置」にセット可能に設けられている。デジタルカメラ10は、このモードダイヤル22を「2D静止画位置」にセットすることにより、2Dの静止画を撮影する2D静止画撮影モードに設定され、2D/3Dモード切替フラグ168に、2Dモードであることを表すフラグが設定される。また、「2D動画位置」にセットすることにより、2Dの動画を撮影する2D動画撮影モードに設定され、2D/3Dモード切替フラグ168に、2Dモードであることを表すフラグが設定される。   The mode dial 22 is used for setting the shooting mode. The mode dial 22 is rotatably provided on the upper surface of the camera body 12, and “2D still image position”, “2D moving image position”, “3D still image position”, “3D moving image position” are not shown by a click mechanism (not shown). It is provided so that it can be set. The digital camera 10 is set to a 2D still image shooting mode for shooting a 2D still image by setting the mode dial 22 to “2D still image position”, and the 2D / 3D mode switching flag 168 is set in the 2D mode. A flag indicating that there is something is set. Also, by setting the “2D moving image position”, the 2D moving image shooting mode for shooting a 2D moving image is set, and the 2D / 3D mode switching flag 168 is set with a flag indicating the 2D mode.

また、「3D静止画位置」にセットすることにより、3Dの静止画を撮影する3D静止画撮影モードに設定され、2D/3Dモード切替フラグ168に、3Dモードであることを表すフラグが設定される。さらに、「3D動画位置」にセットすることにより、3Dの動画を撮影する3D動画撮影モードに設定され、2D/3Dモード切替フラグ168に、3Dモードであることを表すフラグが設定される。後述するCPU110は、この2D/3Dモード切替フラグ168を参照して、2Dモード又は3Dモードのいずれであるかを把握する。   Also, by setting the “3D still image position”, the 3D still image shooting mode for shooting a 3D still image is set, and the 2D / 3D mode switching flag 168 is set with a flag indicating the 3D mode. The Further, by setting the “3D moving image position”, the 3D moving image shooting mode for shooting a 3D moving image is set, and the 2D / 3D mode switching flag 168 is set with a flag indicating the 3D mode. The CPU 110 to be described later refers to the 2D / 3D mode switching flag 168 and grasps whether the mode is the 2D mode or the 3D mode.

モニタ24は、かまぼこ状のレンズ群を有したいわゆるレンチキュラレンズが前面に配置されたカラー液晶パネル等の表示装置である。このモニタ24は、撮影済み画像を表示するための画像表示部として利用されるとともに、各種設定時にGUIとして利用される。また、モニタ24は、撮影時には、各撮像素子134R/Lが継続的に捉えた画像(スルー画像)が順次表示し、電子ファインダとして利用される。   The monitor 24 is a display device such as a color liquid crystal panel in which a so-called lenticular lens having a semi-cylindrical lens group is arranged on the front surface. The monitor 24 is used as an image display unit for displaying captured images, and is used as a GUI when various settings are made. In addition, the monitor 24 sequentially displays images (through images) continuously captured by the imaging elements 134R / L during shooting, and is used as an electronic viewfinder.

ここで、モニタ24で立体視表示が可能となる仕組みについて図面を参照しながら説明する。   Here, a mechanism that enables stereoscopic display on the monitor 24 will be described with reference to the drawings.

図3は、モニタ24で立体視表示が可能となる仕組みについて説明するための図である。モニタ24の前面(観者の視点(左眼EL、右眼ER)が存在するz軸方向)には、レンティキュラレンズ24aが配置されている。レンティキュラレンズ24aは、複数の円筒状凸レンズを図3中x軸方向に連ねることで構成される。   FIG. 3 is a diagram for explaining a mechanism that enables stereoscopic display on the monitor 24. A lenticular lens 24a is disposed on the front surface of the monitor 24 (in the z-axis direction where the viewer's viewpoint (left eye EL, right eye ER) is present). The lenticular lens 24a is configured by connecting a plurality of cylindrical convex lenses in the x-axis direction in FIG.

モニタ24に表示される立体視画像の表示領域は、右眼用短冊画像表示領域24Rと左眼用短冊画像表示領域24Lとから構成されている。右眼用短冊画像表示領域24R及び左眼用短冊画像表示領域24Lは、それぞれ画面の図3中y軸方向に細長い短冊形状をしており、図3中x軸方向に交互に配置される。   The display area of the stereoscopic image displayed on the monitor 24 includes a strip image display area 24R for the right eye and a strip image display area 24L for the left eye. The strip image display area 24R for the right eye and the strip image display area 24L for the left eye each have an elongated strip shape in the y-axis direction in FIG. 3 of the screen, and are alternately arranged in the x-axis direction in FIG.

レンティキュラレンズ24aの各凸レンズは、観者の所与の観察点を基準として、それぞれ一組の右眼用短冊画像表示領域24R及び左眼用短冊画像表示領域24Lを含む短冊集合画像表示領域24cに対応した位置に形成される。   Each convex lens of the lenticular lens 24a has a strip aggregate image display region 24c including a pair of right eye strip image display regions 24R and a left eye strip image display region 24L with reference to a given observation point of the viewer. It is formed at a position corresponding to.

図3では、観者の右眼ERには、レンティキュラレンズ24aの光屈折作用により、モニタ24の右眼用短冊画像表示領域24Rに表示された右眼用短冊画像が入射される。また、観者の左眼ELには、レンティキュラレンズ24aの光屈折作用により、モニタ24の左眼用短冊画像表示領域24Lに表示された左眼用短冊画像が入射される。したがって、観者の右眼は右眼用短冊画像のみを、観者の左眼は左眼用短冊画像のみを見ることになり、これら右眼用短冊画像の集合である右眼用画像及び左眼用短冊画像の集合である左眼用画像による左右視差により立体視が可能となる。   In FIG. 3, the strip image for the right eye displayed in the strip image display area 24R for the right eye of the monitor 24 is incident on the viewer's right eye ER due to the light refraction action of the lenticular lens 24a. The left eye strip image displayed in the left eye strip image display area 24L of the monitor 24 is incident on the left eye EL of the viewer due to the light refraction action of the lenticular lens 24a. Therefore, the viewer's right eye sees only the right-eye strip image, and the viewer's left eye sees only the left-eye strip image, and the right-eye image and the left eye are a set of these right-eye strip images. Stereoscopic viewing is possible by the left-right parallax of the left-eye image that is a set of ophthalmic strip images.

なお、モニタ24は、液晶や有機EL等の二次元と三次元の両方が表示可能な表示素子を含む。自発光、あるいは別に光源があり光量を制御する方式であってもよい。また、偏光による方式やアナグリフ、裸眼式等、方式は問わない。また、液晶や有機ELを多層に重ねた方式でもよい。   The monitor 24 includes a display element capable of displaying both two-dimensional and three-dimensional such as liquid crystal and organic EL. Self-emission or a method of controlling the amount of light with a separate light source may be used. In addition, a system such as a polarized light system, an anaglyph, and a naked eye system are not limited. Moreover, the system which laminated | stacked the liquid crystal and organic EL in the multilayer may be sufficient.

ズームボタン26は、撮影レンズ14R、14Lのズーム操作に用いられ、望遠側へのズームを指示するズームテレボタンと、広角側へのズームを指示するズームワイドボタンとで構成されている。   The zoom button 26 is used for a zoom operation of the photographing lenses 14R and 14L, and includes a zoom tele button for instructing zooming to the telephoto side and a zoom wide button for instructing zooming to the wide angle side.

十字ボタン28は、上下左右4方向に押圧操作可能に設けられており、各方向のボタンには、カメラの設定状態に応じた機能が割り当てられる。たとえば、撮影時には、左ボタンにマクロ機能のON/OFFを切り替える機能が割り当てられ、右ボタンにストロボモードを切り替える機能が割り当てられる。また、上ボタンにモニタ24の明るさを替える機能が割り当てられ、下ボタンにセルフタイマのON/OFFを切り替える機能が割り当てられる。また、再生時には、左ボタンにコマ送りの機能が割り当てられ、右ボタンにコマ戻しの機能が割り当てられる。また、上ボタンにモニタ24の明るさを替える機能が割り当てられ、下ボタンに再生中の画像を削除する機能が割り当てられる。また、各種設定時には、モニタ24に表示されたカーソルを各ボタンの方向に移動させる機能が割り当てられる。   The cross button 28 is provided so that it can be pressed in four directions, up, down, left and right, and a function corresponding to the setting state of the camera is assigned to the button in each direction. For example, at the time of shooting, a function for switching on / off of the macro function is assigned to the left button, and a function for switching the strobe mode is assigned to the right button. In addition, a function for changing the brightness of the monitor 24 is assigned to the upper button, and a function for switching ON / OFF of the self-timer is assigned to the lower button. Further, during playback, a frame advance function is assigned to the left button, and a frame return function is assigned to the right button. Also, a function for changing the brightness of the monitor 24 is assigned to the upper button, and a function for deleting the image being reproduced is assigned to the lower button. In various settings, a function for moving the cursor displayed on the monitor 24 in the direction of each button is assigned.

MENU/OKボタン30は、メニュー画面の呼び出し(MENU機能)に用いられるとともに、選択内容の確定、処理の実行指示等(OK機能)に用いられ、デジタルカメラ10の設定状態に応じて割り当てられる機能が切り替えられる。   The MENU / OK button 30 is used to call a menu screen (MENU function), and is used to confirm selection contents, execute a process, etc. (OK function), and is assigned according to the setting state of the digital camera 10. Is switched.

メニュー画面では、たとえば露出値、色合い、ISO感度、記録画素数などの画質調整やセルフタイマの設定、測光方式の切り替え、デジタルズームを使用するか否かなど、デジタルカメラ10が持つ全ての調整項目の設定が行われる。デジタルカメラ10は、このメニュー画面で設定された条件に応じて動作する。   On the menu screen, for example, all adjustment items that the digital camera 10 has such as image quality adjustment such as exposure value, hue, ISO sensitivity, number of recorded pixels, self-timer setting, photometry method switching, and whether or not to use digital zoom. Settings are made. The digital camera 10 operates according to the conditions set on this menu screen.

DISPボタン32は、モニタ24の表示内容の切り替え指示等の入力に用いられ、BACKボタン34は入力操作のキャンセル等の指示の入力に用いられる。   The DISP button 32 is used to input an instruction to switch the display contents of the monitor 24, and the BACK button 34 is used to input an instruction to cancel the input operation.

縦撮り/横撮り切替ボタン36は、縦撮り又は横撮り(縦撮りモード又は横撮りモード)のいずれで撮影を行うかを指示するためのボタンである。縦撮り/横撮り検出回路166は、このボタンの状態により、縦撮り又は横撮りのいずれで撮影を行うかを検出する。   The vertical / horizontal shooting switch button 36 is a button for instructing whether to perform vertical shooting or horizontal shooting (vertical shooting mode or horizontal shooting mode). The vertical / horizontal shooting detection circuit 166 detects whether shooting is performed in vertical shooting or horizontal shooting depending on the state of this button.

図4は、図1及び図2に示したデジタルカメラ10の電気的構成を示すブロック図である。   FIG. 4 is a block diagram showing an electrical configuration of the digital camera 10 shown in FIGS. 1 and 2.

図4に示すように、本実施形態のデジタルカメラ10は、二つの撮像系それぞれから画像信号を取得できるように構成されており、CPU110、2D/3D表示切替部40、全体画像合成回路42、3D画像編集回路44、編集制御入力部46、2D/3D切替視点数切替部48、サムネイル画像作成回路50、カーソル作成回路52、操作部(シャッタボタン18、電源/モードスイッチ20、モードダイヤル22、ズームボタン26、十字ボタン28、MENU/OKボタン30、DISPボタン32、BACKボタン34、2D/3Dモード切替ボタン36等)112、ROM116、フラッシュROM118、SDRAM120、VRAM122、撮影レンズ14R、14L、ズームレンズ制御部124R、124L、フォーカスレンズ制御部126R、126L、絞り制御部128R、128L、撮像素子134R、134L、タイミングジェネレータ(TG)136R、136L、アナログ信号処理部138R、138L、A/D変換器140R、140L、画像入力コントローラ141R、141L、デジタル信号処理部142R、142L、AF検出部144、AE/AWB検出部146、3D画像生成部150、圧縮・伸張処理部152、メディア制御部154、メモリカード156、表示制御部158、モニタ24、電源制御部160、バッテリ162、ストロボ制御部164、ストロボ16等を備えている。   As shown in FIG. 4, the digital camera 10 of the present embodiment is configured to acquire image signals from each of the two imaging systems, and includes a CPU 110, a 2D / 3D display switching unit 40, an entire image synthesis circuit 42, 3D image editing circuit 44, editing control input unit 46, 2D / 3D switching viewpoint number switching unit 48, thumbnail image creation circuit 50, cursor creation circuit 52, operation unit (shutter button 18, power / mode switch 20, mode dial 22, Zoom button 26, cross button 28, MENU / OK button 30, DISP button 32, BACK button 34, 2D / 3D mode switching button 36, etc.) 112, ROM 116, flash ROM 118, SDRAM 120, VRAM 122, taking lenses 14R, 14L, zoom lens Control units 124R, 124L, focus Control unit 126R, 126L, aperture control unit 128R, 128L, image sensor 134R, 134L, timing generator (TG) 136R, 136L, analog signal processing unit 138R, 138L, A / D converter 140R, 140L, image input controller 141R 141L, digital signal processing units 142R and 142L, AF detection unit 144, AE / AWB detection unit 146, 3D image generation unit 150, compression / decompression processing unit 152, media control unit 154, memory card 156, display control unit 158, A monitor 24, a power supply control unit 160, a battery 162, a strobe control unit 164, a strobe 16 and the like are provided.

図1中右側の撮像手段Rは、主として、撮影レンズ14R、ズームレンズ制御部124R、フォーカスレンズ制御部126R、絞り制御部128R、撮像素子134R、タイミングジェネレータ(TG)136R、アナログ信号処理部138R、A/D変換器140R、画像入力コントローラ141R、デジタル信号処理部142R等から構成される。   The imaging unit R on the right side in FIG. 1 mainly includes a photographic lens 14R, a zoom lens control unit 124R, a focus lens control unit 126R, an aperture control unit 128R, an image sensor 134R, a timing generator (TG) 136R, an analog signal processing unit 138R, An A / D converter 140R, an image input controller 141R, a digital signal processing unit 142R, and the like are included.

図1中左側の撮像手段Lは、主として、撮影レンズ14L、ズームレンズ制御部124L、フォーカスレンズ制御部126L、絞り制御部128L、撮像素子134L、タイミングジェネレータ(TG)136L、アナログ信号処理部138L、A/D変換器140L、画像入力コントローラ141L、デジタル信号処理部142L等から構成される。   1 mainly includes a photographing lens 14L, a zoom lens control unit 124L, a focus lens control unit 126L, an aperture control unit 128L, an image sensor 134L, a timing generator (TG) 136L, an analog signal processing unit 138L, An A / D converter 140L, an image input controller 141L, a digital signal processing unit 142L, and the like are included.

CPU110は、撮影、表示、記録などカメラ全体の動作を統括制御する制御手段として機能し、操作部112からの入力に基づき所定の制御プログラムに従って各部を制御する。操作部112は、シャッタボタン18、電源/モードスイッチ20、モードダイヤル22、ズームボタン26、十字ボタン28、MENU/OKボタン30、DISPボタン32、BACKボタン34、マクロボタン36などを含む。   The CPU 110 functions as a control unit that controls the overall operation of the camera, such as shooting, display, and recording, and controls each unit according to a predetermined control program based on an input from the operation unit 112. The operation unit 112 includes a shutter button 18, a power / mode switch 20, a mode dial 22, a zoom button 26, a cross button 28, a MENU / OK button 30, a DISP button 32, a BACK button 34, a macro button 36, and the like.

バス114を介して接続されたROM116には、このCPU110が実行する制御プログラム及び制御に必要な各種データ(後述するAE/AFの制御周期等)等が格納されており、フラッシュROM118には、ユーザ設定情報等のデジタルカメラ10の動作に関する各種設定情報等が格納されている。   The ROM 116 connected via the bus 114 stores a control program executed by the CPU 110 and various data necessary for control (AE / AF control cycle and the like described later). Various setting information relating to the operation of the digital camera 10 such as setting information is stored.

SDRAM120は、CPU110の演算作業用領域として利用されるとともに、画像データの一時記憶領域として利用され、VRAM122は、表示用の画像データ専用の一時記憶領域として利用される。   The SDRAM 120 is used as a calculation work area for the CPU 110 and is also used as a temporary storage area for image data, and the VRAM 122 is used as a temporary storage area dedicated to image data for display.

左右一対の撮影レンズ14R、14L(まとめて撮影レンズ14と表すこともある)は、ズームレンズ130ZR、130ZL(まとめてズームレンズ130Zと表すこともある)、フォーカスレンズ130FR、130FL(まとめてフォーカスレンズ130Fと表すこともある)、絞り132R、132Lを含んで構成され、所定の間隔をもってカメラボディ12に配置されている。   A pair of left and right photographing lenses 14R and 14L (also collectively referred to as photographing lens 14) are zoom lenses 130ZR and 130ZL (also collectively denoted as zoom lens 130Z), focus lenses 130FR and 130FL (collectively focus lenses). 130F), which includes the apertures 132R and 132L, and is arranged on the camera body 12 with a predetermined interval.

ズームレンズ130ZR、130LRは、図示しないズームアクチュエータに駆動されて光軸に沿って前後移動する。CPU110は、ズームレンズ制御部124R、124Lを介してズームアクチュエータの駆動を制御することにより、ズームレンズの位置を制御し、撮影レンズ14R、14Lのズーミングを行う。   The zoom lenses 130ZR and 130LR are driven by a zoom actuator (not shown) to move back and forth along the optical axis. The CPU 110 controls the position of the zoom lens by controlling the driving of the zoom actuator via the zoom lens control units 124R and 124L, and zooms the photographing lenses 14R and 14L.

フォーカスレンズ130FR、130FLは、図示しないフォーカスアクチュエータに駆動されて光軸に沿って前後移動する。CPU110は、フォーカスレンズ制御部126R、126Lを介してフォーカスアクチュエータの駆動を制御することにより、フォーカスレンズの位置を制御し、撮影レンズ14R、14Lのフォーカシングを行う。   The focus lenses 130FR and 130FL are driven by a focus actuator (not shown) to move back and forth along the optical axis. The CPU 110 controls the position of the focus lens by controlling the drive of the focus actuator via the focus lens control units 126R and 126L, and performs focusing of the photographing lenses 14R and 14L.

絞り132R、132Lは、たとえば、アイリス絞りで構成されており、図示しない絞りアクチュエータに駆動されて動作する。CPU110は、絞り制御部128R、128Lを介して絞りアクチュエータの駆動を制御することにより、絞り132R、132Lの開口量(絞り値)を制御し、撮像素子134R、134Lへの入射光量を制御する。   The diaphragms 132R and 132L are constituted by, for example, iris diaphragms, and are operated by being driven by a diaphragm actuator (not shown). The CPU 110 controls the aperture amount (aperture value) of the diaphragms 132R and 132L by controlling the driving of the diaphragm actuator via the diaphragm controllers 128R and 128L, and controls the amount of light incident on the image sensors 134R and 134L.

なお、CPU110は、この撮影レンズ14R、14Lを構成するズームレンズ130ZR、130ZL、フォーカスレンズ130FR、130FL、絞り132R、132Lを駆動する際、左右の撮影レンズ14R、14Lを同期させて駆動する。すなわち、左右の撮影レンズ14R、14Lは、常に同じ焦点距離(ズーム倍率)に設定され、常に同じ被写体にピントが合うように、焦点調節が行われる。また、常に同じ入射光量(絞り値)となるように絞りが調整される。   The CPU 110 drives the left and right photographing lenses 14R and 14L in synchronism when driving the zoom lenses 130ZR and 130ZL, the focus lenses 130FR and 130FL, and the apertures 132R and 132L constituting the photographing lenses 14R and 14L. That is, the left and right photographing lenses 14R and 14L are always set to the same focal length (zoom magnification), and focus adjustment is performed so that the same subject is always in focus. In addition, the aperture is adjusted so that the same incident light amount (aperture value) is always obtained.

撮像素子134R、134Lは、所定のカラーフィルタ配列のカラーCCDで構成されている。CCDは、その受光面に多数のフォトダイオードが二次元的に配列されている。撮影レンズ14R、14LによってCCDの受光面上に結像された被写体の光学像は、このフォトダイオードによって入射光量に応じた信号電荷に変換される。各フォトダイオードに蓄積された信号電荷は、CPU110の指令に従ってTG136R、136Lから与えられる駆動パルスに基づいて信号電荷に応じた電圧信号(画像信号)として撮像素子134R、134Lから順次読み出される。   The image sensors 134R and 134L are composed of color CCDs having a predetermined color filter array. In the CCD, a large number of photodiodes are two-dimensionally arranged on the light receiving surface. The optical image of the subject formed on the light receiving surface of the CCD by the photographing lenses 14R and 14L is converted into signal charges corresponding to the amount of incident light by the photodiode. The signal charges accumulated in the respective photodiodes are sequentially read out from the image sensors 134R and 134L as voltage signals (image signals) corresponding to the signal charges based on the drive pulses given from the TGs 136R and 136L in accordance with instructions from the CPU 110.

なお、この撮像素子134R、134Lには、電子シャッタの機能が備えられており、フォトダイオードへの電荷蓄積時間を制御することにより、露光時間(シャッタ速度)が制御される。   The imaging elements 134R and 134L have an electronic shutter function, and the exposure time (shutter speed) is controlled by controlling the charge accumulation time in the photodiode.

なお、本実施の形態では、撮像素子としてCCDを用いているが、CMOSセンサ等の他の構成の撮像素子を用いることもできる。   In the present embodiment, a CCD is used as the image sensor, but an image sensor having another configuration such as a CMOS sensor can also be used.

アナログ信号処理部138R、138Lは、撮像素子134R、134Lから出力された画像信号に含まれるリセットノイズ(低周波)を除去するための相関二重サンプリング回路(CDS)、画像信号を増幅し、一定レベルの大きさにコントロールするためのAGS回路を含み、撮像素子134R、134Lから出力される画像信号を相関二重サンプリング処理するとともに増幅する。   Analog signal processing units 138R and 138L are correlated double sampling circuits (CDS) for removing reset noise (low frequency) included in the image signals output from the image sensors 134R and 134L, amplify the image signals, and are constant An AGS circuit for controlling the magnitude of the level is included, and the image signals output from the image sensors 134R and 134L are subjected to correlated double sampling processing and amplified.

A/D変換器140R、140Lは、アナログ信号処理部138R、138Lから出力されたアナログの画像信号をデジタルの画像信号に変換する。   The A / D converters 140R and 140L convert the analog image signals output from the analog signal processing units 138R and 138L into digital image signals.

画像入力コントローラ141R、141Lは、A/D変換器140R、140Lから出力された画像信号を取り込んで、SDRAM120に格納する。   The image input controllers 141R and 141L take in the image signals output from the A / D converters 140R and 140L and store them in the SDRAM 120.

デジタル信号処理部142R、142Lは、CPU110からの指令に従いSDRAM120に格納された画像信号を取り込み、所定の信号処理を施して輝度信号Yと色差信号Cr、CbとからなるYUV信号を生成する。   The digital signal processing units 142R and 142L take in the image signal stored in the SDRAM 120 in accordance with a command from the CPU 110, perform predetermined signal processing, and generate a YUV signal including the luminance signal Y and the color difference signals Cr and Cb.

図5は、このデジタル信号処理部142R、142Lの概略構成を示すブロック図である。   FIG. 5 is a block diagram showing a schematic configuration of the digital signal processing units 142R and 142L.

図5に示すように、デジタル信号処理部142R、142Lは、ホワイトバランスゲイン算出回路142a、オフセット補正回路142b、ゲイン補正回路142c、ガンマ補正回路142d、RGB補間演算部142e、RGB/YC変換回路142f、ノイズフィルタ142g、輪郭補正回路142h、色差マトリクス回路142i、光源種別判定回路142jを備えて構成される。   As shown in FIG. 5, the digital signal processing units 142R and 142L include a white balance gain calculation circuit 142a, an offset correction circuit 142b, a gain correction circuit 142c, a gamma correction circuit 142d, an RGB interpolation calculation unit 142e, and an RGB / YC conversion circuit 142f. , A noise filter 142g, a contour correction circuit 142h, a color difference matrix circuit 142i, and a light source type determination circuit 142j.

ホワイトバランスゲイン算出回路142aは、AE/AWB検出部146で算出された積算値を取り込んでホワイトバランス調整用のゲイン値を算出する。   The white balance gain calculation circuit 142a takes in the integrated value calculated by the AE / AWB detection unit 146 and calculates a gain value for white balance adjustment.

オフセット補正回路142bは、画像入力コントローラ141R、141Lを介して取り込まれたR、G、Bの各色の画像信号に対してオフセット処理を行う。   The offset correction circuit 142b performs an offset process on the image signals of R, G, and B colors captured via the image input controllers 141R and 141L.

ゲイン補正回路142cは、オフセット処理された画像信号を取り込み、ホワイトバランスゲイン算出回路142aで算出されたゲイン値を用いてホワイトバランス調整を行う。   The gain correction circuit 142c takes in the image signal that has been subjected to the offset processing, and performs white balance adjustment using the gain value calculated by the white balance gain calculation circuit 142a.

ガンマ補正回路142dは、ホワイトバランス調整された画像信号を取り込み、所定のγ値を用いてガンマ補正を行う。   The gamma correction circuit 142d takes in an image signal that has undergone white balance adjustment, and performs gamma correction using a predetermined γ value.

RGB補間演算部142eは、ガンマ補正されたR、G、Bの色信号を補間演算して、各画素位置におけるR、G、B3色の信号を求める。すなわち、単板式の撮像素子の場合、各画素からは、R、G、Bのいずれか一色の信号しか出力されないため、出力しない色を周囲の画素の色信号から補間演算により求める。たとえば、Rを出力する画素では、この画素位置におけるG、Bの色信号がどの程度になるかを周りの画素のG、B信号から補間演算により求める。このように、RGB補間演算は、単板式の撮像素子に特有のものなので、撮像素子134に三板式のものを用いた場合には不要となる。   The RGB interpolation calculation unit 142e interpolates the gamma-corrected R, G, and B color signals to obtain R, G, and B3 color signals at each pixel position. That is, in the case of a single-plate image sensor, each pixel outputs only one color signal of R, G, and B. Therefore, a color that is not output is obtained from the color signals of surrounding pixels by interpolation calculation. For example, in a pixel that outputs R, the level of G and B color signals at this pixel position is determined by interpolation from the G and B signals of surrounding pixels. As described above, since the RGB interpolation calculation is specific to the single-plate image sensor, it is not necessary when a three-plate image sensor is used as the image sensor 134.

RGB/YC変換回路142fは、RGB補間演算後のR、G、B信号から輝度信号Yと色差信号Cr、Cbを生成する。   The RGB / YC conversion circuit 142f generates a luminance signal Y and color difference signals Cr and Cb from the R, G, and B signals after the RGB interpolation calculation.

ノイズフィルタ142gは、RGB/YC変換回路142fで生成された輝度信号Yと色差信号Cr、Cbに対してノイズ低減処理を施す。   The noise filter 142g performs noise reduction processing on the luminance signal Y and the color difference signals Cr and Cb generated by the RGB / YC conversion circuit 142f.

輪郭補正回路142hは、ノイズ低減後の輝度信号Yに対し、輪郭補正処理を行い、輪郭補正された輝度信号Y’を出力する。   The contour correction circuit 142h performs contour correction processing on the luminance signal Y after noise reduction, and outputs a luminance signal Y ′ whose contour has been corrected.

一方、色差マトリクス回路142iは、ノイズ低減後の色差信号Cr、Cbに対し、色差マトリクス(C−MTX)を乗算して色調補正を行う。すなわち、色差マトリクス回路142iには、光源対応の色差マトリクスが複数種類設けられており、光源種別判定回路142jが求めた光源種に応じて、使用する色差マトリクスを切り替え、この切り替え後の色差マトリクスを入力された色差信号Cr、Cbに乗算し、色調補正された色差信号Cr’、Cb’を出力する。   On the other hand, the color difference matrix circuit 142i performs color correction by multiplying the color difference signals Cr and Cb after noise reduction by the color difference matrix (C-MTX). That is, the color difference matrix circuit 142i is provided with a plurality of types of color difference matrices corresponding to the light sources, and the color difference matrix to be used is switched according to the light source type obtained by the light source type determination circuit 142j. The input color difference signals Cr and Cb are multiplied, and color-tone-corrected color difference signals Cr ′ and Cb ′ are output.

光源種別判定回路142jは、AE/AWB検出部146で算出された積算値を取り込んで光源種を判定し、色差マトリクス回路142iに色差マトリクス選択信号を出力する。   The light source type determination circuit 142j determines the light source type by taking in the integrated value calculated by the AE / AWB detection unit 146, and outputs a color difference matrix selection signal to the color difference matrix circuit 142i.

なお、本実施の形態のデジタルカメラでは、上記のようにデジタル信号処理部をハードウェア回路で構成しているが、当該ハードウェア回路と同じ機能をソフトウェアにて構成することも可能である。   In the digital camera of this embodiment, the digital signal processing unit is configured by a hardware circuit as described above, but the same function as that of the hardware circuit can be configured by software.

AF検出部144は、一方の画像入力コントローラ141Rから取り込まれたR、G、Bの各色の画像信号を取り込み、AF制御に必要な焦点評価値を算出する。このAF検出部144は、G信号の高周波成分のみを通過させるハイパスフィルタ、絶対値化処理部、画面に設定された所定のフォーカスエリア内の信号を切り出すフォーカスエリア抽出部、及び、フォーカスエリア内の絶対値データを積算する積算部を含み、この積算部で積算されたフォーカスエリア内の絶対値データを焦点評価値としてCPU110に出力する。   The AF detection unit 144 captures R, G, and B color image signals captured from one image input controller 141R, and calculates a focus evaluation value necessary for AF control. The AF detection unit 144 includes a high-pass filter that allows only a high-frequency component of the G signal to pass, an absolute value processing unit, a focus area extraction unit that extracts a signal within a predetermined focus area set on the screen, and a focus area An integration unit for integrating the absolute value data is included, and the absolute value data in the focus area integrated by the integration unit is output to the CPU 110 as a focus evaluation value.

CPU110は、AF制御時、このAF検出部144から出力される焦点評価値が極大となる位置をサーチし、その位置にフォーカスレンズ130FR、130FLを移動させることにより、主要被写体への焦点合わせを行う。すなわち、CPU110は、AF制御時、まず、フォーカスレンズ130FR、130FLを至近から無限遠まで移動させ、その移動過程で逐次AF検出部144から焦点評価値を取得し、その焦点評価値が極大となる位置を検出する。そして、検出された焦点評価値が極大の位置を合焦位置と判定し、その位置にフォーカスレンズ130FR、130FLを移動させる。これにより、フォーカスエリアに位置する被写体(主要被写体)にピントが合わせられる。   During the AF control, the CPU 110 searches for a position where the focus evaluation value output from the AF detection unit 144 is maximized, and moves the focus lenses 130FR and 130FL to the position to perform focusing on the main subject. . That is, during the AF control, the CPU 110 first moves the focus lenses 130FR and 130FL from the close range to the infinity, sequentially acquires the focus evaluation value from the AF detection unit 144 in the moving process, and the focus evaluation value becomes maximum. Detect position. Then, the position where the detected focus evaluation value is maximum is determined as the in-focus position, and the focus lenses 130FR and 130FL are moved to that position. Thereby, the subject (main subject) located in the focus area is focused.

AE/AWB検出部146は、一方の画像入力コントローラ141Rから取り込まれたR、G、Bの各色の画像信号を取り込み、AE制御及びAWB制御に必要な積算値を算出する。すなわち、このAE/AWB検出部146は、一画面を複数のエリア(たとえば、8×8=64エリア)に分割し、分割されたエリアごとにR、G、B信号の積算値を算出する。   The AE / AWB detection unit 146 takes in image signals of R, G, and B colors taken from one image input controller 141R, and calculates an integrated value necessary for AE control and AWB control. That is, the AE / AWB detection unit 146 divides one screen into a plurality of areas (for example, 8 × 8 = 64 areas), and calculates an integrated value of R, G, and B signals for each divided area.

CPU110は、AE制御時、このAE/AWB検出部146で算出されたエリアごとのR、G、B信号の積算値を取得し、被写体の明るさ(測光値)を求めて、適正な露光量を得るための露出設定を行う。すなわち、感度、絞り値、シャッタ速度、ストロボ発光の要否を設定する。   At the time of AE control, the CPU 110 acquires an integrated value of R, G, B signals for each area calculated by the AE / AWB detection unit 146, obtains the brightness (photometric value) of the subject, and obtains an appropriate exposure amount. Set the exposure to obtain That is, sensitivity, aperture value, shutter speed, and necessity of strobe light emission are set.

また、CPU110は、AWB制御時、AE/AWB検出部146で算出されたエリアごとのR、G、B信号の積算値をデジタル信号処理部142のホワイトバランスゲイン算出回路142a及び光源種別判定回路142jに加える。   In addition, during the AWB control, the CPU 110 calculates the integrated values of the R, G, and B signals for each area calculated by the AE / AWB detection unit 146, the white balance gain calculation circuit 142a and the light source type determination circuit 142j of the digital signal processing unit 142. Add to.

ホワイトバランスゲイン算出回路142aは、このAE/AWB検出部146で算出された積算値に基づいてホワイトバランス調整用のゲイン値を算出する。   The white balance gain calculation circuit 142a calculates a gain value for white balance adjustment based on the integrated value calculated by the AE / AWB detection unit 146.

また、光源種別判定回路142jは、このAE/AWB検出部146で算出された積算値に基づいて光源種を検出する。   The light source type determination circuit 142j detects the light source type based on the integrated value calculated by the AE / AWB detection unit 146.

圧縮・伸張処理部152は、CPU110からの指令に従い、入力された画像データに所定形式の圧縮処理を施し、圧縮画像データを生成する。また、CPU110からの指令に従い、入力された圧縮画像データに所定形式の伸張処理を施し、非圧縮の画像データを生成する。なお、本実施の形態のデジタルカメラ10では、静止画に対しては、JPEG規格に準拠した圧縮処理が施され、動画に対してはMPEG2規格に準拠した圧縮処理が施される。   The compression / decompression processing unit 152 performs compression processing in a predetermined format on the input image data in accordance with a command from the CPU 110 to generate compressed image data. Further, in accordance with a command from the CPU 110, the input compressed image data is subjected to a decompression process in a predetermined format to generate uncompressed image data. In the digital camera 10 according to the present embodiment, a still image is subjected to compression processing conforming to the JPEG standard, and a moving image is subjected to compression processing conforming to the MPEG2 standard.

メディア制御部154は、CPU110からの指令に従い、メモリカード156に対してデータの読み/書きを制御する。   The media control unit 154 controls reading / writing of data with respect to the memory card 156 in accordance with a command from the CPU 110.

表示制御部158は、CPU110からの指令に従い、モニタ24への表示を制御する。すなわち、CPU110からの指令に従い、入力された画像信号をモニタ24に表示するための映像信号(たとえば、NTSC信号やPAL信号、SCAM信号)に変換してモニタ24に出力するとともに、所定の文字、図形情報をモニタ24に出力する。   The display control unit 158 controls display on the monitor 24 in accordance with a command from the CPU 110. That is, in accordance with a command from the CPU 110, the input image signal is converted into a video signal (for example, NTSC signal, PAL signal, SCAM signal) to be displayed on the monitor 24 and output to the monitor 24. The graphic information is output to the monitor 24.

電源制御部160は、CPU110からの指令に従い、バッテリ162から各部への電源供給を制御する。   The power control unit 160 controls power supply from the battery 162 to each unit in accordance with a command from the CPU 110.

ストロボ制御部164は、CPU110からの指令に従い、ストロボ16の発光を制御する。   The strobe control unit 164 controls the light emission of the strobe 16 in accordance with a command from the CPU 110.

高さ検出部38は、基準面(例えば、地面)からの撮影高さ(距離)を検出するための回路である。   The height detection unit 38 is a circuit for detecting a shooting height (distance) from a reference plane (for example, the ground).

縦撮り/横撮り検出回路166は、縦撮り/横撮り切替ボタン36の状態により、縦撮りであるか横撮りであるかを検出する。   The vertical shooting / horizontal shooting detection circuit 166 detects whether the shooting is vertical shooting or horizontal shooting depending on the state of the vertical shooting / horizontal shooting switching button 36.

2D/3Dモード切替フラグ168には、2Dモードであること又は3Dモードであることを表すフラグが設定される。   The 2D / 3D mode switching flag 168 is set with a flag indicating the 2D mode or the 3D mode.

距離算出部7は、まずステレオマッチングの手法を用いて撮像素子134R、134Lがそれぞれ取得した画像SR,SL上において互いに対応する対応点を求める。対応点の求め方は公知のものを適用すればよい。例えば、画像SR,SLから部分的な行列(例えば3×3画素)を取り出して相関値を求めることにより対応点を求める。具体的には、画像SR,SLの一方から輝度・色差の変わる境界部分(エッジ成分)を特徴点とし、他方の画像において同様のエッジ成分を有する部分を対応点とする。あるいは、画像SR,SLからそれぞれ顔検出を行い、検出された顔領域の頭頂と顎の先端をそれぞれの画像の特徴点あるいは対応点としてもよく、特徴点と対応点の抽出方法を相互に依存させる必要はない。要するに、特徴点は、対応点が見つけられる点であれば、エッジに限られず、任意の点であって良い。   The distance calculation unit 7 first obtains corresponding points corresponding to each other on the images SR and SL acquired by the imaging elements 134R and 134L, respectively, using a stereo matching technique. What is necessary is just to apply the method of calculating | requiring a corresponding point. For example, a corresponding matrix is obtained by extracting a partial matrix (for example, 3 × 3 pixels) from the images SR and SL and obtaining a correlation value. Specifically, a boundary portion (edge component) where the luminance / color difference changes from one of the images SR and SL is used as a feature point, and a portion having a similar edge component in the other image is used as a corresponding point. Alternatively, each face may be detected from the images SR and SL, and the top of the detected face area and the tip of the chin may be used as feature points or corresponding points of each image, and the feature point and corresponding point extraction methods are mutually dependent. There is no need to let them. In short, the feature point is not limited to an edge as long as a corresponding point can be found, and may be an arbitrary point.

そして、距離算出部7は、画像SRにおいて求めた特徴点間の垂直方向軸に沿った距離と、画像SLにおいて求めた対応点間の垂直方向軸に沿った距離を求める。ただし、この距離の算出方式を採用するのは撮影レンズ14R、14Lが水平方向に並んで配置された場合である。撮影レンズ14R、14Lが垂直方向に並んで配置された場合は、距離算出部7は、画像SRにおいて求めた特徴点間の水平方向軸に沿った距離と、画像SLにおいて求めた対応点間の水平方向軸に沿った距離を求める。なぜなら、撮影レンズの配列方向と距離の算出方向が一致すると、撮影レンズの視差が影響し、特徴点間の距離と対応点間の距離との関係が撮影レンズ14R、14Lの各々から被写体までの距離との関係を正確に反映しないからである。   Then, the distance calculation unit 7 calculates the distance along the vertical axis between the feature points obtained in the image SR and the distance along the vertical axis between the corresponding points obtained in the image SL. However, this distance calculation method is employed when the photographing lenses 14R and 14L are arranged side by side in the horizontal direction. When the photographic lenses 14R and 14L are arranged side by side in the vertical direction, the distance calculation unit 7 determines the distance between the feature points obtained in the image SR along the horizontal axis and the corresponding points obtained in the image SL. Find the distance along the horizontal axis. This is because, when the arrangement direction of the photographic lenses coincides with the distance calculation direction, the parallax of the photographic lenses influences, and the relationship between the distance between the feature points and the distance between the corresponding points is from each of the photographic lenses 14R and 14L to the subject. This is because the relationship with the distance is not accurately reflected.

要するに、距離算出部7は、撮影レンズ14R、14Lの配列方向と直交する方向に沿って、特徴点間の距離と対応点間の距離を求めるのが好適である。もっとも、被写体がカメラ10から比較的離れた位置にあるなど視差の影響が小さい場合は、距離算出部7は、撮影レンズ14R、14Lの配列方向とは無関係に、2次元平面における特徴点間の距離と対応点間の距離を求めてもよい。   In short, it is preferable that the distance calculation unit 7 obtains the distance between feature points and the distance between corresponding points along a direction orthogonal to the arrangement direction of the photographing lenses 14R and 14L. Of course, when the influence of parallax is small, such as when the subject is located relatively far from the camera 10, the distance calculation unit 7 determines the distance between the feature points on the two-dimensional plane regardless of the arrangement direction of the photographing lenses 14 </ b> R and 14 </ b> L. The distance between the distance and the corresponding point may be obtained.

例えば、図6(a)の画像SRからは、図7(a)の特徴点P1−RおよびP2−Rが求められ、図6(b)の画像SLからは、図7(b)の対応点P1−LおよびP2−Lが求められたとする。   For example, the feature points P1-R and P2-R in FIG. 7A are obtained from the image SR in FIG. 6A, and the correspondence in FIG. 7B is obtained from the image SL in FIG. 6B. Assume that the points P1-L and P2-L are obtained.

この場合、図8のように、特徴点P1−RとP2−Rとの間の垂直方向の距離DRと、対応点P1−LとP2−Lの間の垂直方向の距離DLとが算出される。   In this case, as shown in FIG. 8, the vertical distance DR between the feature points P1-R and P2-R and the vertical distance DL between the corresponding points P1-L and P2-L are calculated. The

なお、特徴点と対応点を求める画像は図示されたものに限らず、どちらの画像から特徴点あるいは対応点を求めても、結果的に双方の画像からそれぞれ得られる2点間の距離は技術的に同等であることは容易に理解できる。つまり、先に画像SRから特徴点を求めても、画像SLから先に特徴点を求めてもよい。   Note that the images for obtaining the feature points and the corresponding points are not limited to those shown in the figure, and the distance between the two points obtained from both images as a result is obtained from either image regardless of whether the feature points or the corresponding points are obtained. Can be easily understood. That is, the feature point may be obtained first from the image SR or the feature point may be obtained first from the image SL.

以下、図9のフローチャートを参照し、カメラ10のメインCPU110が実行を制御するズーム位置調整処理の流れを説明する。この処理をメインCPU110に実行させるプログラムはROM116に記憶されており、メインCPU110がこのプログラムをSDRAM120に読み出して解釈・実行する。   Hereinafter, the flow of the zoom position adjustment process that is controlled by the main CPU 110 of the camera 10 will be described with reference to the flowchart of FIG. A program for causing the main CPU 110 to execute this processing is stored in the ROM 116, and the main CPU 110 reads this program into the SDRAM 120 for interpretation and execution.

S1では、CPU110は、ズームボタン26の操作に応じて、ズームレンズ制御部124R、124Lを介してズームアクチュエータの駆動を制御することにより、ズームレンズの位置を制御し、撮影レンズ14R、14Lのズーミングを行う。   In S1, the CPU 110 controls the position of the zoom lens by controlling the driving of the zoom actuator via the zoom lens control units 124R and 124L in accordance with the operation of the zoom button 26, and zooms the photographing lenses 14R and 14L. I do.

S2では、スルー画の出力を行う。   In S2, a through image is output.

S3では、画像SR,SLの一方から求められた特徴点間の距離(特徴点間距離)と、画像SR,SLの他方から求められた対応点間の距離(対応点間距離)とを比較し、両者が実質的に一致するか否かを判断する。YesならばS4、NoならばS5に進む。なお、実質的に一致するとは、両者が完全に一致することの他、両者の差分の絶対値が、予めROM116に格納された所定の誤差閾値以下である場合も含む。   In S3, the distance between feature points obtained from one of the images SR and SL (distance between feature points) is compared with the distance between corresponding points obtained from the other of the images SR and SL (distance between corresponding points). Then, it is determined whether or not both substantially match. If Yes, the process proceeds to S4. If No, the process proceeds to S5. Note that the term “substantially match” includes not only the case where both match completely, but also the case where the absolute value of the difference between the two is equal to or less than a predetermined error threshold value stored in advance in the ROM 116.

S4では、撮影レンズ14R、14Lのズーム位置調整を終える。   In S4, the zoom position adjustment of the photographing lenses 14R and 14L is finished.

S5では、S3で比較された距離のうち小さい方に対応する画像を撮像した方の撮影レンズ14のズーム位置をワイド側に移動させるような制御またはS3で比較された距離のうち大きい方に対応する画像を撮像した方の撮影レンズ14のズーム位置をテレ側に移動させるような制御のうちいずれか一方を行い、片方の撮像系のズーム位置を微調整することで、両撮像系の画像から求めた2点間の距離を実質的に一致させるるようにする。   In S5, control is performed to move the zoom position of the photographic lens 14 that captures the image corresponding to the smaller one of the distances compared in S3 to the wide side, or the larger one of the distances compared in S3. Control is performed to move the zoom position of the photographic lens 14 that picks up the image to be telephoto to the tele side, and the zoom position of one of the image pickup systems is finely adjusted, so that the images of both image pickup systems can be adjusted. The obtained distance between the two points is substantially matched.

あるいは、S3で比較された特徴点間距離・対応点間距離のうち小さい方に対応する画像を撮像した方の撮像系の撮影レンズ14のズーム位置をワイド側に移動させるような制御およびS3で比較された距離のうち大きい方に対応する画像を撮像した方の撮像系の撮影レンズのズーム位置をテレ側に移動させるような制御を行ってもよい。すなわち、双方のズーム位置を微調整することで、両撮像系の画像から求めた2点間の距離を実質的に一致させる。   Alternatively, the control is such that the zoom position of the photographing lens 14 of the imaging system that captures the image corresponding to the smaller one of the feature point distance and the corresponding point distance compared in S3 is moved to the wide side, and S3. Control may be performed such that the zoom position of the photographing lens of the imaging system that captures the image corresponding to the larger one of the compared distances is moved to the tele side. That is, by finely adjusting both zoom positions, the distance between the two points obtained from the images of both imaging systems is substantially matched.

あるいは、撮影レンズ14のズーム位置を変化させる光学ズームの代わりに、あるいは光学ズームとともに、画像処理を用いた電子ズームによって両撮像系の画像から求めた2点間の距離を実質的に一致させてもよい。   Alternatively, instead of the optical zoom for changing the zoom position of the photographing lens 14 or together with the optical zoom, the distance between the two points obtained from the images of both imaging systems is substantially matched by electronic zoom using image processing. Also good.

なお、この処理の目的は、これから撮像を行う場合の両撮像系の撮影レンズ14のズーム位置を調節して異なる撮像系から同倍率の画像を得ることであるから、電子ズームのみを用いて当該距離の誤差調整を行っても、スルー画表示に関するメリットはあるが、本撮像でのメリットはあまりない。ただし、撮影済みの両撮像系の画像のズーム倍率の誤差を撮影後に調整するのであれば、電子ズームのみを用いて当該距離の誤差調整を行うことも考えられる。   Note that the purpose of this process is to obtain the same magnification image from different image pickup systems by adjusting the zoom position of the taking lens 14 of both image pickup systems when taking images from now on. Even if distance error adjustment is performed, there is a merit related to the through image display, but there is not much merit in the actual imaging. However, if the error of the zoom magnification of the images of both imaging systems that have already been photographed is adjusted after photographing, it is conceivable to perform error adjustment of the distance using only the electronic zoom.

以上の処理により、異なる撮像系のズーム位置のばらつきが簡易に調整され、失敗画像の撮影を防止できる。   Through the above processing, variations in zoom positions of different imaging systems can be easily adjusted, and shooting of failed images can be prevented.

<第2実施形態>
第1実施形態において、距離算出部7が各撮像系から得られた画像からそれぞれ求める2点間の距離は1つでなく複数でもよい。この場合、距離算出部7は、任意の2特徴点間の距離である特徴点間距離を複数求めるとともに、距離が求められた2特徴点に対応する2対応点の距離である対応点間距離を複数求め、対応するそれぞれの特徴点間距離および対応点間距離が実質的に一致するか否かを判断する。どの特徴点間距離および対応点間距離も実質的に一致すればS4に進み、少なくとも1つの特徴点間距離および対応点間距離が実質的に一致しなければS5に進む。
<Second Embodiment>
In the first embodiment, the distance calculation unit 7 may obtain a plurality of distances between the two points obtained from the images obtained from the respective imaging systems instead of one. In this case, the distance calculation unit 7 obtains a plurality of distances between feature points that are distances between two arbitrary feature points, and a distance between corresponding points that is a distance between two corresponding points corresponding to the two feature points for which the distances are obtained. Are determined, and it is determined whether or not the corresponding distance between feature points and the distance between corresponding points substantially match. If the distance between any feature points and the distance between corresponding points substantially match, the process proceeds to S4, and if the distance between at least one feature point and the distance between corresponding points does not substantially match, the process proceeds to S5.

例えば、図10に示すように、画像SRからは、P1−1−R、P1−2−R、P2―1−R、P2―2−Rという4つの特徴点が求められ、画像SLからは、それぞれP1−1−R、P1−2−R、P2―1−R、P2―2−Rの特徴点に対応するP1−1−L、P1−2−L、P2―1−L、P2―2−Lという4つの対応点が求められたとする。
例えば、距離算出部7は、P1−1−RとP1−2−Rとの間の特徴点間距離DR−1と、P2―1−RとP2―2−Rとの間の特徴点間距離DR−2を求めるとともに、P1−1−RとP1−2−Rとに対応する対応点P1−1−LとP1−2−Lとの間の対応点間距離DL−1と、P2−1−RとP2−2−Rとに対応する対応点P2−1−LとP2−2−Lとの間の対応点間距離DL−2を求める。一般的には、特徴点がn=3以上の場合は、個の距離を算出でき、それらの各々の特徴点の組の距離を求めてもよいが、処理の簡略のため、水平方向に近い特徴点同士の距離だけを求めるものとする。
For example, as shown in FIG. 10, four feature points P1-1-R, P1-2-R, P2-1-R, and P2-2-R are obtained from the image SR. , P1-1-L, P1-2-L, P2-1-L, P2 corresponding to the characteristic points of P1-1-R, P1-2-R, P2-1-R, and P2-2-R, respectively. Suppose that four corresponding points of 2-L are obtained.
For example, the distance calculation unit 7 calculates the distance DR-1 between feature points between P1-1-R and P1-2-R, and between feature points between P2-1-R and P2-2-R. While calculating | requiring distance DR-2, distance DL-1 between corresponding points between corresponding points P1-1-L and P1-2-L corresponding to P1-1-R and P1-2-R, and P2 Corresponding point distance DL-2 between corresponding points P2-1-L and P2-2-L corresponding to -1-R and P2-2R is obtained. Generally, when the feature points are n = 3 or more, n C 2 distances can be calculated, and the distance between each of the feature points may be obtained. Only the distance between feature points close to the direction is obtained.

そして、CPU110は、DR−1とDL−1が実質的に一致しかつDR−2とDL−2が実質的に一致するか否かを判断する。すなわち、差分Δ1=|(DR−1)−(DL−1)|、差分Δ2=|(DR−2)−(DL−2)|を求め、Δ1およびΔ2の双方が所定の閾値以下であるか否かを判断し、YesであればS4に進み、NoであればS5に進む。   Then, CPU 110 determines whether DR-1 and DL-1 substantially match and DR-2 and DL-2 substantially match. That is, the difference Δ1 = | (DR−1) − (DL−1) | and the difference Δ2 = | (DR−2) − (DL−2) | are obtained, and both Δ1 and Δ2 are equal to or less than a predetermined threshold value. If yes, the process proceeds to S4, and if No, the process proceeds to S5.

このように、複数組の特徴点・対応点の距離の誤差を調整すれば、各画像間の対応点の距離の誤差の判定が精密化し、ズーム調整も正確になる。   As described above, by adjusting the error of the distance between the plurality of sets of feature points / corresponding points, the determination of the error of the distance between the corresponding points between the images becomes precise, and the zoom adjustment becomes accurate.

<第3実施形態>
第1または第2実施形態において、撮影レンズから被写体までの距離が非常に小さくなった場合、一方の撮影レンズから被写体までの距離と他方の撮影レンズから被写体までの距離が大きく異なる可能性が生じる。
<Third Embodiment>
In the first or second embodiment, when the distance from the photographing lens to the subject becomes very small, there is a possibility that the distance from one photographing lens to the subject and the distance from the other photographing lens to the subject are greatly different. .

例えば、図11(a)に示すように、2つの撮影レンズ14R/Lから被写体までの直線距離をそれぞれxR、xLとする。被写体が2つの撮影レンズ14R/Lの配列された直線の中心Oから延びた垂線上に存在していればxR=xLとなる。あるいは、被写体が中心Oから十分遠ければxR≒xLとなる。これらの場合は、2つの撮影レンズ14R/Lから得た画像SR、SLにおいて上記被写体像はほぼ同じ大きさとなり、特徴点間距離と対応点間距離とは実質的に一致するであろう。   For example, as shown in FIG. 11A, the linear distances from the two photographing lenses 14R / L to the subject are xR and xL, respectively. If the subject is on a perpendicular extending from the center O of the straight line in which the two photographing lenses 14R / L are arranged, xR = xL. Alternatively, if the subject is sufficiently far from the center O, xR≈xL. In these cases, in the images SR and SL obtained from the two photographing lenses 14R / L, the subject images will be substantially the same size, and the distance between the feature points and the distance between the corresponding points will substantially coincide.

しかし、図11(b)に示すように、被写体が2つの撮影レンズ14R/Lの配列された直線の中心から延びた垂線上に存在しておらず、かつ、マクロ撮影時のように被写体から中心Oまでの距離rが非常に小さくなる場合、xR≫xL(あるいはxR≪xL)となり、被写体に近い方の撮影レンズ14から得た画像内の被写体は高倍率ズームと同じような拡大状態となる。よって、この被写体像から特徴点と対応点を求めると、特徴点間距離および対応点間距離の差分の絶対値が所定の誤差閾値の範囲を超え、両者が実質的に一致しない可能性がある。この場合、上述の処理によると、S5に進んでズームの調整がされてしまうが、これでは異なる撮像系のズーム位置のばらつきの調整ではなく、撮影レンズ14から被写体までの距離の相違による被写体の大きさの調整になってしまい、正しい立体映像(近いものは近く、遠いものは遠く見せる)の形成が妨げられてしまう。   However, as shown in FIG. 11B, the subject does not exist on the perpendicular extending from the center of the straight line where the two photographing lenses 14R / L are arranged, and the subject is not as in macro photography. When the distance r to the center O is very small, xR >> xL (or xR << xL), and the subject in the image obtained from the photographing lens 14 closer to the subject has an enlarged state similar to that of the high magnification zoom. Become. Therefore, when the feature point and the corresponding point are obtained from the subject image, the absolute value of the difference between the distance between the feature points and the distance between the corresponding points may exceed a predetermined error threshold range, and the two may not substantially coincide with each other. . In this case, according to the above-described processing, the zoom adjustment is performed by proceeding to S5. However, this is not the adjustment of the variation in the zoom position of the different imaging systems, but the adjustment of the subject due to the difference in the distance from the photographing lens 14 to the subject. The size is adjusted, and the formation of a correct stereoscopic image (a close one is close and a far one is far away) is prevented.

そこで、特徴点の検出範囲を、視差の影響がないか小さい範囲である、撮影レンズの配列線の中央付近を基準とした領域に制限することで、撮影レンズ14から被写体までの距離の差異に起因したズーム位置調整の誤動作を防ぐ。   Therefore, by limiting the detection range of the feature points to a region that has no or little influence on parallax and that is near the center of the photographic lens array line, the difference in distance from the photographic lens 14 to the subject can be reduced. Prevents malfunction of zoom position adjustment caused by it.

具体的には、CPU110は、フォーカスレンズ130Fの合焦時における位置情報を主要被写体距離に換算した値や三角測距などの公知の方法で測定した被写体までの距離が、ROM116に格納された所定の距離閾値以下(例えば撮影レンズ間の距離d以下)となった場合、特徴点の検出範囲を、撮影レンズの配列方向と同じ方向で制限する。あるいは、操作部112からマクロ撮影モードが設定された場合に特徴点の検出範囲を制限してもよい。   Specifically, the CPU 110 stores a value obtained by converting position information when the focus lens 130F is in focus into a main subject distance or a distance to a subject measured by a known method such as triangulation, which is stored in the ROM 116. When the distance is equal to or smaller than the distance threshold (for example, the distance d between the photographing lenses), the feature point detection range is limited in the same direction as the arrangement direction of the photographing lenses. Alternatively, the feature point detection range may be limited when the macro shooting mode is set from the operation unit 112.

制限された特徴点の検出範囲のサイズや形状は任意である。例えば、図12に示すように、特徴点の水平方向の検出範囲を、画像SR、SLの全体ではなく、画像の中央X(撮影レンズ14R,Lの中央)から所定の距離STの範囲内とする。これにより、特徴点は撮影レンズ14R,Lからほぼ等距離にあるものだけが求められ、ズーム位置調整の誤動作を防ぐことができる。なお、距離STを距離rに比例させて小さくしてもよい。これは、距離rが小さくなるにつれて視差によるズーム位置のずれの影響が大きくなり、その分視差の影響の小さい検出範囲を狭めるためである。   The size and shape of the limited feature point detection range are arbitrary. For example, as shown in FIG. 12, the horizontal detection range of feature points is not within the entire images SR and SL, but within a range of a predetermined distance ST from the center X of the image (the center of the photographing lenses 14R and 14L). To do. As a result, only feature points that are substantially equidistant from the photographing lenses 14R and 14L are obtained, and malfunction of zoom position adjustment can be prevented. Note that the distance ST may be reduced in proportion to the distance r. This is because as the distance r becomes smaller, the influence of the shift of the zoom position due to the parallax becomes larger, and accordingly, the detection range where the influence of the parallax is smaller is narrowed.

なお、被写体までの距離の大小に関わらず常に特徴点の検出範囲を画像の中央近傍領域に制限してもよいが、この場合逆に第2実施形態のような画像周辺部分の特徴点の検出(例えば図10のP1−1−R、P1−2−R)ができなくなってしまう。よって、被写体までの距離が所定の値よりも近い場合やそれと同等の撮影状況が設定された場合(例えば操作部112からマクロ撮影モードが設定された場合や、ズームレンズ130Zがワイド端かその近傍に移動された場合)には、特徴点の検出範囲を制限し、被写体までの距離が所定の値よりも遠い場合やそれと同等の撮影状況が設定された場合(例えば操作部112から風景撮影モードが設定された場合や、ズームレンズ130Zがテレ端かその近傍に移動された場合)には、特徴点の検出範囲を拡大(例えば画像全体)する方が好ましい。   Note that the feature point detection range may always be limited to the area near the center of the image regardless of the distance to the subject. In this case, however, the feature point detection in the periphery of the image as in the second embodiment is performed. (For example, P1-1-R and P1-2-R in FIG. 10) cannot be performed. Therefore, when the distance to the subject is closer than a predetermined value, or when an equivalent shooting situation is set (for example, when the macro shooting mode is set from the operation unit 112, or when the zoom lens 130Z is at or near the wide end) The feature point detection range is limited, and when the distance to the subject is longer than a predetermined value or a shooting situation equivalent to that is set (for example, landscape shooting mode from the operation unit 112) Is set or when the zoom lens 130Z is moved to or near the tele end), it is preferable to enlarge the detection range of the feature points (for example, the entire image).

また、合焦評価値算出領域や多点測距の測距値算出点は元々画面中央付近に設定されるのが通常であり、このような画面中央付近の物体のみの測距を行った場合、画面中央付近の物体が近い距離にあるかそうでないかで特徴点の検出範囲が制限されることになる。画面中央付近に存在しない物体(例えば図11(b))が近い距離にあるかそうでないかで特徴点の検出範囲が制限したい場合は、合焦評価値算出領域や測距値算出点を予め画面中央付近だけでなくそれ以外の周辺領域にも拡張しておく必要がある。   Also, the focus evaluation value calculation area and the multi-point distance measurement value calculation point are usually set near the center of the screen, and when such an object near the center of the screen is measured. The detection range of feature points is limited depending on whether or not an object near the center of the screen is at a short distance. When it is desired to limit the feature point detection range depending on whether or not an object that does not exist near the center of the screen (for example, FIG. 11B) is at a short distance, the focus evaluation value calculation area and the distance measurement value calculation point are set in advance. It is necessary to extend not only near the center of the screen but also to other peripheral areas.

<その他の実施形態>
第1〜3実施形態で説明した発明は、3Dカメラの他、パノラマ撮影カメラにも適用でき、さらに、3Dカメラとパノラマ撮影を兼ねるカメラユニット(例えば本出願人による特開2008−61259号公報に記載のもの)にも適用できる。
<Other embodiments>
The invention described in the first to third embodiments can be applied not only to a 3D camera, but also to a panoramic shooting camera. Applicable to the above).

デジタルカメラの正面斜視図Front perspective view of digital camera デジタルカメラの背面斜視図Rear perspective view of digital camera モニタで立体視表示が可能となる仕組みについて説明するための図The figure for demonstrating the structure in which a stereoscopic display is possible on a monitor デジタルカメラの電気的構成を示すブロック図Block diagram showing the electrical configuration of the digital camera デジタル信号処理部の概略構成を示すブロック図Block diagram showing schematic configuration of digital signal processor 各撮像系の得た画像を例示した図Diagram illustrating images obtained by each imaging system 特徴点および対応点を例示した図Diagram illustrating feature points and corresponding points 特徴点間距離および対応点間距離を例示した図Diagram illustrating distance between feature points and distance between corresponding points ズーム位置調整処理のフローチャートZoom position adjustment process flowchart 複数の特徴点および対応点を例示した図Diagram illustrating multiple feature points and corresponding points 各撮像系から等距離あるいは異なる距離にある被写体を例示した図A diagram illustrating subjects at equal distances or different distances from each imaging system 特徴点を検出する制限領域を例示した図A diagram exemplifying a restricted area for detecting feature points

符号の説明Explanation of symbols

10…複眼デジタルカメラ、12…カメラボディ、14L、14R…撮影レンズ、16…ストロボ、18…シャッタボタン、20…モードスイッチ、22…モードダイヤル、24…モニタ、24L…左眼用短冊画像表示領域、24R…右眼用短冊画像表示領域、24a…レンティキュラレンズ、24c…短冊集合画像表示領域、26…ズームボタン、28…十字ボタン、30…ボタン、32…ボタン、34…ボタン、36…マクロボタン、36…切替ボタン、36…切替ボタン、38…検出部、40…2D/3D表示切替部、42…全体画像合成回路、44…3D画像編集回路、46…編集制御入力部、48…2D/3D切替視点数切替部、50…サムネイル画像作成回路、52…カーソル作成回路、112…操作部、114…バス、124L、124R…ズームレンズ制御部、126L、126R…フォーカスレンズ制御部、128L、128R…制御部、130FR…フォーカスレンズ、130ZR…ズームレンズ、134L、134R…撮像素子、138L、138R…アナログ信号処理部、140L、140R…変換器、141L、141R…画像入力コントローラ、142L、142R…デジタル信号処理部、142a…ホワイトバランスゲイン算出回路、142b…オフセット補正回路、142c…ゲイン補正回路、142d…ガンマ補正回路、142e…補間演算部、142f…変換回路、142g…ノイズフィルタ、142h…輪郭補正回路、142i…色差マトリクス回路、142j…光源種別判定回路、144、146…検出部、150…画像生成部、152…圧縮・伸張処理部、154…メディア制御部、156…メモリカード、158…表示制御部、160…電源制御部、162…バッテリ、164…ストロボ制御部、166…検出回路、168…モード切替フラグ、R,L…撮像手段(撮像系)、7…距離算出部 DESCRIPTION OF SYMBOLS 10 ... Compound eye digital camera, 12 ... Camera body, 14L, 14R ... Shooting lens, 16 ... Strobe, 18 ... Shutter button, 20 ... Mode switch, 22 ... Mode dial, 24 ... Monitor, 24L ... Strip image display area for left eye 24R ... Right-eye strip image display area, 24a ... Lenticular lens, 24c ... Strip collection image display area, 26 ... Zoom button, 28 ... Cross button, 30 ... button, 32 ... button, 34 ... button, 36 ... Macro Button ... 36 ... Switching button 36 ... Switching button 38 ... Detection unit 40 ... 2D / 3D display switching unit 42 ... Whole image composition circuit 44 ... 3D image editing circuit 46 ... Editing control input unit 48 ... 2D / 3D switching viewpoint number switching unit, 50... Thumbnail image generation circuit, 52... Cursor generation circuit, 112. , 124R ... zoom lens control unit, 126L, 126R ... focus lens control unit, 128L, 128R ... control unit, 130FR ... focus lens, 130ZR ... zoom lens, 134L, 134R ... image sensor, 138L, 138R ... analog signal processing unit, 140L, 140R ... converters, 141L, 141R ... image input controller, 142L, 142R ... digital signal processing unit, 142a ... white balance gain calculation circuit, 142b ... offset correction circuit, 142c ... gain correction circuit, 142d ... gamma correction circuit, 142e: Interpolation calculation unit, 142f ... Conversion circuit, 142g ... Noise filter, 142h ... Contour correction circuit, 142i ... Color difference matrix circuit, 142j ... Light source type determination circuit, 144, 146 ... Detection unit, 150 ... Image generation unit, 152 Compression / decompression processing unit, 154 ... media control unit, 156 ... memory card, 158 ... display control unit, 160 ... power supply control unit, 162 ... battery, 164 ... strobe control unit, 166 ... detection circuit, 168 ... mode switching flag, R, L ... Imaging means (imaging system), 7 ... Distance calculator

Claims (8)

2以上の視点から撮影された多視点画像を取得可能な撮影部と、
前記撮影部の撮影した多視点画像のうち任意の1つの視点画像から、少なくとも1対の特徴点を抽出する特徴点抽出部と、
前記撮影部の撮影した多視点画像のうち前記特徴点抽出部が特徴点を抽出した視点画像以外の視点画像から、前記少なくとも1対の特徴点に対応する少なくとも1対の対応点を抽出する対応点抽出部と、
前記少なくとも1対の特徴点間の距離である特徴点間距離と、前記少なくとも1対の対応点間の距離である対応点間距離とを算出する距離算出部と、
前記特徴点間距離と前記対応点間距離とが実質的に一致するように、前記撮影部のズーム倍率を制御する制御部と、
を備える撮影装置。
An imaging unit capable of acquiring multi-viewpoint images taken from two or more viewpoints;
A feature point extraction unit that extracts at least one pair of feature points from any one viewpoint image among the multi-viewpoint images captured by the imaging unit;
Corresponding to extract at least one pair of corresponding points corresponding to the at least one pair of feature points from viewpoint images other than the viewpoint image from which the feature point extraction unit has extracted the feature points among the multi-viewpoint images captured by the photographing unit. A point extractor;
A distance calculation unit that calculates a distance between feature points that is a distance between the at least one pair of feature points and a distance between corresponding points that is a distance between the at least one pair of corresponding points;
A control unit that controls a zoom magnification of the imaging unit such that the distance between the feature points and the distance between the corresponding points substantially match;
An imaging device comprising:
前記特徴点抽出部は、少なくとも2対の特徴点を抽出する請求項1に記載の撮影装置。   The imaging device according to claim 1, wherein the feature point extraction unit extracts at least two pairs of feature points. 前記特徴点抽出部は、前記撮像部の被写体距離および/またはズーム倍率に応じて前記少なくとも1対の特徴点を抽出する範囲を前記多視点画像の中央付近に制限する請求項1または2に記載の撮影装置。   3. The feature point extraction unit limits a range in which the at least one pair of feature points is extracted in the vicinity of the center of the multi-viewpoint image according to a subject distance and / or zoom magnification of the imaging unit. Shooting device. 前記ズーム倍率は光学ズームおよび/または電子ズームの倍率を含む請求項1〜3のいずれかに記載の撮影装置。   The photographing apparatus according to claim 1, wherein the zoom magnification includes an optical zoom and / or electronic zoom magnification. 前記特徴点抽出部が特徴点を抽出する多視点画像は本撮影前の任意のタイミングで取得されたスルー画を含む請求項1〜4のいずれかに記載の撮影装置。   The imaging device according to claim 1, wherein the multi-viewpoint image from which the feature point extraction unit extracts a feature point includes a through image acquired at an arbitrary timing before actual imaging. 前記距離算出部が前記特徴点間距離を算出する特徴点間の線分は、前記撮影部の各視点の並ぶ方向と直交する請求項1〜5のいずれかに記載の撮影装置。   The imaging device according to claim 1, wherein a line segment between feature points for which the distance calculation unit calculates the distance between the feature points is orthogonal to a direction in which the viewpoints of the imaging unit are arranged. 2以上の視点から撮影された多視点画像を取得する撮影部を備えた撮影装置が実行する撮影方法であって、
前記撮影部の撮影した多視点画像のうち任意の1つの視点画像から、少なくとも1対の特徴点を抽出するステップと、
前記撮影部の撮影した多視点画像のうち前記特徴点を抽出した視点画像以外の視点画像から、前記少なくとも1対の特徴点に対応する少なくとも1対の対応点を抽出するステップと、
前記少なくとも1対の特徴点間の距離である特徴点間距離と、前記少なくとも1対の対応点間の距離である対応点間距離とを算出するステップと、
前記特徴点間距離と前記対応点間距離とが実質的に一致するように、前記撮影部のズーム倍率を制御するステップと、
を含む撮影方法。
An imaging method executed by an imaging apparatus including an imaging unit that acquires multi-viewpoint images taken from two or more viewpoints,
Extracting at least one pair of feature points from any one viewpoint image among the multi-viewpoint images captured by the imaging unit;
Extracting at least one pair of corresponding points corresponding to the at least one pair of feature points from viewpoint images other than the viewpoint image from which the feature points have been extracted from the multi-viewpoint images captured by the photographing unit;
Calculating a distance between feature points that is a distance between the at least one pair of feature points and a distance between corresponding points that is a distance between the at least one pair of corresponding points;
Controlling the zoom magnification of the photographing unit so that the distance between the feature points and the distance between the corresponding points substantially coincide with each other;
Including shooting method.
請求項7に記載の撮影方法を撮影装置に実行させるための撮影プログラム。   An imaging program for causing an imaging apparatus to execute the imaging method according to claim 7.
JP2008275928A 2008-10-27 2008-10-27 Apparatus, method and program for photographing Ceased JP2010103949A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008275928A JP2010103949A (en) 2008-10-27 2008-10-27 Apparatus, method and program for photographing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008275928A JP2010103949A (en) 2008-10-27 2008-10-27 Apparatus, method and program for photographing

Publications (1)

Publication Number Publication Date
JP2010103949A true JP2010103949A (en) 2010-05-06

Family

ID=42294138

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008275928A Ceased JP2010103949A (en) 2008-10-27 2008-10-27 Apparatus, method and program for photographing

Country Status (1)

Country Link
JP (1) JP2010103949A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012128226A1 (en) * 2011-03-18 2012-09-27 富士フイルム株式会社 Lens control device and lens control method
JP2015050494A (en) * 2013-08-30 2015-03-16 日立オートモティブシステムズ株式会社 Imaging device
JP2016021603A (en) * 2014-07-11 2016-02-04 株式会社東芝 Electronic apparatus, method and program
KR20160098543A (en) * 2015-02-09 2016-08-19 한국전자통신연구원 Device and method for multiview image calibration
EP2538660A3 (en) * 2011-06-21 2016-10-12 Samsung Electronics Co., Ltd. Camera apparatus and method of recognizing an object by using a camera
JP2017208606A (en) * 2016-05-16 2017-11-24 キヤノン株式会社 Image processing apparatus, imaging device, image processing method and image processing program
CN115484401A (en) * 2021-05-31 2022-12-16 佳能株式会社 Electronic device, control method of electronic device, and recording medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08251626A (en) * 1995-03-13 1996-09-27 Nippon Hoso Kyokai <Nhk> Zoom position control device for stereoscopic television camera
JP2005072674A (en) * 2003-08-27 2005-03-17 Sharp Corp Three-dimensional image generating apparatus and three-dimensional image generating system
JP2006251683A (en) * 2005-03-14 2006-09-21 Fujinon Corp Stereoscopic image photographing system
JP2007221312A (en) * 2006-02-15 2007-08-30 Pentax Corp Imaging device
JP2008070120A (en) * 2006-09-12 2008-03-27 Hitachi Ltd Distance measuring device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08251626A (en) * 1995-03-13 1996-09-27 Nippon Hoso Kyokai <Nhk> Zoom position control device for stereoscopic television camera
JP2005072674A (en) * 2003-08-27 2005-03-17 Sharp Corp Three-dimensional image generating apparatus and three-dimensional image generating system
JP2006251683A (en) * 2005-03-14 2006-09-21 Fujinon Corp Stereoscopic image photographing system
JP2007221312A (en) * 2006-02-15 2007-08-30 Pentax Corp Imaging device
JP2008070120A (en) * 2006-09-12 2008-03-27 Hitachi Ltd Distance measuring device

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012128226A1 (en) * 2011-03-18 2012-09-27 富士フイルム株式会社 Lens control device and lens control method
US9383543B2 (en) 2011-03-18 2016-07-05 Fujifilm Corporation Lens control device and lens control method
EP2538660A3 (en) * 2011-06-21 2016-10-12 Samsung Electronics Co., Ltd. Camera apparatus and method of recognizing an object by using a camera
KR101822655B1 (en) * 2011-06-21 2018-01-29 삼성전자주식회사 Object recognition method using camera and camera system for the same
JP2015050494A (en) * 2013-08-30 2015-03-16 日立オートモティブシステムズ株式会社 Imaging device
JP2016021603A (en) * 2014-07-11 2016-02-04 株式会社東芝 Electronic apparatus, method and program
KR20160098543A (en) * 2015-02-09 2016-08-19 한국전자통신연구원 Device and method for multiview image calibration
KR101973460B1 (en) * 2015-02-09 2019-05-02 한국전자통신연구원 Device and method for multiview image calibration
JP2017208606A (en) * 2016-05-16 2017-11-24 キヤノン株式会社 Image processing apparatus, imaging device, image processing method and image processing program
US11032533B2 (en) 2016-05-16 2021-06-08 Canon Kabushiki Kaisha Image processing apparatus, image capturing apparatus, image processing method, and storage medium
CN115484401A (en) * 2021-05-31 2022-12-16 佳能株式会社 Electronic device, control method of electronic device, and recording medium

Similar Documents

Publication Publication Date Title
JP4692770B2 (en) Compound eye digital camera
US8363091B2 (en) Stereoscopic image pick-up apparatus
JP4662071B2 (en) Image playback method
JP5425554B2 (en) Stereo imaging device and stereo imaging method
JP5640143B2 (en) Imaging apparatus and imaging method
JP5166650B2 (en) Stereo imaging device, image playback device, and editing software
US20110018970A1 (en) Compound-eye imaging apparatus
JP4763827B2 (en) Stereoscopic image display device, compound eye imaging device, and stereoscopic image display program
JP5426262B2 (en) Compound eye imaging device
WO2012036019A1 (en) Monocular 3d-imaging device, shading correction method for monocular 3d-imaging device, and program for monocular 3d-imaging device
US20110050856A1 (en) Stereoscopic imaging apparatus
JPWO2011121841A1 (en) Stereo imaging device
JP2010114760A (en) Photographing apparatus, and fingering notification method and program
JP2011075675A (en) Compound-eye imaging apparatus
US20110018971A1 (en) Compound-eye imaging apparatus
JP2011259168A (en) Stereoscopic panoramic image capturing device
JP5160460B2 (en) Stereo imaging device and stereo imaging method
JP4730616B2 (en) Compound eye digital camera
JP2010103949A (en) Apparatus, method and program for photographing
JP4991685B2 (en) Stereoscopic image processing apparatus and stereoscopic image processing method
US20110025824A1 (en) Multiple eye photography method and apparatus, and program
JP2010237582A (en) Stereo imaging device and stereo imaging method
JP2010204385A (en) Stereoscopic imaging apparatus and method
JP2010200024A (en) Three-dimensional image display device and three-dimensional image display method
JP5054214B2 (en) Compound eye digital camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111018

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121129

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130423

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20130823