[go: up one dir, main page]

JP5380184B2 - Compound eye camera and control method thereof - Google Patents

Compound eye camera and control method thereof Download PDF

Info

Publication number
JP5380184B2
JP5380184B2 JP2009162899A JP2009162899A JP5380184B2 JP 5380184 B2 JP5380184 B2 JP 5380184B2 JP 2009162899 A JP2009162899 A JP 2009162899A JP 2009162899 A JP2009162899 A JP 2009162899A JP 5380184 B2 JP5380184 B2 JP 5380184B2
Authority
JP
Japan
Prior art keywords
correction
unit
movement
eye camera
compound eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009162899A
Other languages
Japanese (ja)
Other versions
JP2011017929A (en
Inventor
一剛 今西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2009162899A priority Critical patent/JP5380184B2/en
Priority to US12/832,725 priority patent/US8743174B2/en
Publication of JP2011017929A publication Critical patent/JP2011017929A/en
Application granted granted Critical
Publication of JP5380184B2 publication Critical patent/JP5380184B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Adjustment Of Camera Lenses (AREA)
  • Studio Devices (AREA)

Description

本発明は、複数の撮像光学系を用いて両眼視差の生じる複数の画像を取得する複眼カメラ、及びその制御方法に関するものである。   The present invention relates to a compound-eye camera that acquires a plurality of images in which binocular parallax occurs using a plurality of imaging optical systems, and a control method thereof.

複数の撮像光学系を用いて両眼視差の生じる複数の画像を取得し、各画像を合成することによって立体視が可能な立体画像を生成する複眼カメラが知られている。こうした複眼カメラでは、撮影時の手振れが立体画像の視差ズレの要因となる。このため、特許文献1では、各撮像光学系で取得された複数の画像の動き量を算出し、その動き量に応じて各画像をトリミングすることにより、手振れによって立体画像に視差ズレが生じることを防いでいる。   A compound-eye camera that generates a stereoscopic image that can be stereoscopically viewed by acquiring a plurality of images with binocular parallax using a plurality of imaging optical systems and combining the images is known. In such a compound-eye camera, camera shake at the time of shooting becomes a cause of a parallax shift of a stereoscopic image. For this reason, in Patent Document 1, a motion amount of a plurality of images acquired by each imaging optical system is calculated, and each image is trimmed according to the motion amount, thereby causing a parallax shift in a stereoscopic image due to camera shake. Is preventing.

ところが、特許文献1のように各画像をトリミングする方法では、必ず切り捨てられる画素が生じ、撮像素子の全ての画素を用いた立体画像を生成することができないため、効率が悪いとともに、動き量によってトリミングのサイズが変化するため、これにともなって立体画像のサイズが意図せず変化してしまうという問題がある。   However, in the method of trimming each image as in Patent Document 1, pixels that are always cut off are generated, and a stereoscopic image using all the pixels of the image sensor cannot be generated. Since the trimming size changes, there is a problem in that the size of the stereoscopic image changes unintentionally.

このような問題の解決策としては、撮像素子や専用のレンズなどの補正部を移動させて物理的に光軸を調整する光学式の手振れ補正を行う機構(特許文献2、3参照)を各撮像光学系に設けることが考えられる。こうすれば、手振れによる視差ズレを防ぐことができるとともに、各撮像光学系で取得された画像をトリミングする必要がないので、全画素を用いた立体画像の生成が可能になり、かつ立体画像のサイズが意図せず変化することもない。   As a solution to such a problem, a mechanism (see Patent Documents 2 and 3) that performs optical camera shake correction that physically adjusts the optical axis by moving a correction unit such as an image sensor or a dedicated lens is provided. It can be considered to be provided in the imaging optical system. In this way, it is possible to prevent a parallax shift due to camera shake, and it is not necessary to trim an image acquired by each imaging optical system. Therefore, it is possible to generate a stereoscopic image using all pixels, and Size does not change unintentionally.

特開2003−092768号公報JP 2003-092768 A 特開平11−183951号公報Japanese Patent Laid-Open No. 11-183951 特開2002−359768号公報JP 2002-359768 A

光学式の手振れ補正では、補正部が補正の限界領域に達した場合、パン・チルト状態と判定された場合、及び電源投入時などに、撮像光学系の光学中心などの所定位置に補正部を復帰させる必要がある。複眼カメラに光学式の手振れ補正を用いた場合、各撮像光学系に設けられた補正部の所定位置までの距離が一定であるとは限らず、各補正部の所定位置に復帰するタイミングが合わないことがある。このように各補正部がバラバラに所定位置に復帰すると基線長に狂いが生じるため、これにともなって立体画像に視差ズレが生じてしまう。そして、こうした視差ズレは、手振れなど撮影者の操作に起因して発生する視差ズレとは異なるため、立体画像を観察する際により違和感を与えてしまう恐れがある。   In optical camera shake correction, the correction unit is placed at a predetermined position such as the optical center of the imaging optical system when the correction unit reaches the correction limit region, is determined to be in a pan / tilt state, and is turned on. It is necessary to return. When optical camera shake correction is used for a compound-eye camera, the distance to the predetermined position of the correction unit provided in each imaging optical system is not always constant, and the timing for returning to the predetermined position of each correction unit is the same. There may not be. As described above, when each correction unit returns to a predetermined position, the baseline length is distorted, and accordingly, a parallax shift occurs in the stereoscopic image. Such a parallax shift is different from a parallax shift generated due to a photographer's operation such as camera shake, which may cause a sense of incongruity when observing a stereoscopic image.

本発明は、上記課題を鑑みてなされたものであり、複眼カメラに光学式の手振れ補正を用いた際にも、各補正部の所定位置への復帰タイミングのバラツキにともなう視差ズレを防止することを目的とする。   The present invention has been made in view of the above problems, and prevents parallax shift due to variations in the return timing of each correction unit to a predetermined position even when optical camera shake correction is used for a compound eye camera. With the goal.

上記目的を達成するため、本発明の複眼カメラでは、各補正部を予め決められた所定位置に復帰させる際に、各位置検出手段の検出結果に基づく各補正部の位置から同時に移動を開始させて所定位置に同時に移動を完了させるための、位置、速度、加速度が連続した目標軌道をそれぞれの補正部について算出し、各補正部の移動を同時に開始させるとともに、算出された目標軌道にしたがって各補正部をそれぞれ移動させるように各駆動部を制御する制御手段を備えたものである。 In order to achieve the above object, in the compound eye camera of the present invention , when each correction unit is returned to a predetermined position, movement is started simultaneously from the position of each correction unit based on the detection result of each position detection means. For each correction unit, a target trajectory in which the position, speed, and acceleration are continuous to complete the movement to a predetermined position at the same time is calculated for each correction unit. Ru der that a control means for controlling each drive unit in so that allowed the correction unit is moved, respectively.

各位置検出手段の検出結果に基づいて、各補正部が補正用移動範囲の限界に達したか否かを各補正部についてそれぞれ判定する補正限界判定手段を備え、制御手段は、各補正部のいずれかが限界に達したと補正限界判定手段が判定した際に、各補正部を所定位置に復帰させることが好ましい。 Based on the detection results of the position detecting means comprises a compensation limit determining means you determined respectively for each correction unit whether the correction unit reaches the limit of the correction range of movement, control means, each when one of the compensation unit determines that the compensation limit determination means has reached the limit, it is preferable to return to the position where each correction unit.

正限界判定手段は、補正用移動範囲を示す領域データを有し、位置検出手段の検出結果と領域データとに基づいて、補正部の位置が補正用移動範囲の内側か否かを確認することによって補正部が限界に達したか否かを判定することが好ましい。 Compensation limit determination means, the correction movement range has shown to area data, on the basis of the detection result of the position置検detecting means and realm data, whether the position of the correction portion or inside of the correction movement range Correction unit by to check whether it is preferable to determine whether reaches the limit.

御手段は、電源がONになった時に、各補正部を所定位置に復帰させる構成も好ましい Control means, when the power is turned ON, the preferred configuration for returning into position at each correction unit.

手振れ検出手段の検出結果に基づいてパンニング又はチルティングが行われているか否かを判定するパン・チルト判定手段を備え、制御手段は、パンニング又はチルティングが行われているとパン・チルト判定手段が判定した際に、各補正部を所定位置に復帰させる構成も好ましいこのときに、パン・チルト判定手段は、各手振れ検出手段の検出結果に基づいて、規定値以上の大きさの動きが一定方向に一定時間以上連続で発生した場合に、パンニング又はチルティングが行われていると判定することが好ましい。 Includes a pan-tilt determining means for determining whether panning or tilting on the basis of the detection result are performed in the camera-shake detecting means, control means, pan-when panning or tilting is being performed when tilt determination means determines, preferably also configured to return to the position where each correction unit. At this time, the pan / tilt determination means performs panning or tilting when a movement with a magnitude greater than a specified value continuously occurs in a certain direction for a certain time or more based on the detection result of each camera shake detection means. It is preferable to determine that it is broken.

所定位置は、撮像光学系の光学中心であることが好ましい。The predetermined position is preferably the optical center of the imaging optical system.

また、本発明の複眼カメラの制御方法では、各補正部を予め決められた所定位置に復帰させる際に、各位置検出手段の検出結果に基づく各補正部の位置から同時に移動を開始させて所定位置に同時に移動を完了させるための、位置、速度、加速度が連続した目標軌道をそれぞれの補正部について算出し、駆動手段による各補正部の移動を同時に開始させるとともに、算出された目標軌道にしたがって各補正部をそれぞれ移動させる復帰制御ステップを有するものである。In the control method for a compound eye camera of the present invention, when each correction unit is returned to a predetermined position, the movement is started simultaneously from the position of each correction unit based on the detection result of each position detection unit. Calculate the target trajectory with continuous position, speed, and acceleration for each correction unit to complete the movement to the position at the same time, and simultaneously start the movement of each correction unit by the driving means, and according to the calculated target trajectory It has a return control step for moving each correction unit.

各位置検出手段の検出結果に基づいて、補正部が補正用移動範囲の限界に達したか否かを各補正部についてそれぞれ判定する補正限界判定ステップを有し、各補正部のいずれかが限界に達したと補正限界判定ステップで判定された際に、復帰制御ステップを実行することが好ましい。 Based on the detection result of each position detection means, there is a correction limit determination step for determining for each correction unit whether or not the correction unit has reached the limit of the correction moving range, and any one of the correction units is the limit It is preferable to execute the return control step when it is determined in the correction limit determination step that the value has been reached .

補正限界判定ステップは、補正用移動範囲を示す領域データを有し、位置検出手段の検出結果と領域データとに基づいて、補正部の位置が補正用移動範囲の内側か否かを確認することによって補正部が前記限界に達したか否かを判定することが好ましい。The correction limit determination step includes region data indicating the correction movement range, and confirms whether the position of the correction unit is inside the correction movement range based on the detection result of the position detection unit and the region data. It is preferable to determine whether or not the correction unit has reached the limit.

た、電源がONになった時に、復帰制御ステップを実行させてもよい。さらには、各手振れ検出手段の検出結果に基づいてパンニング又はチルティングが行われているか否かを判定するステップを有し、パンニング又はチルティングが行われていると判定された際に、復帰制御ステップを実行させてもよい。パン・チルト判定ステップは、各手振れ検出手段の検出結果に基づいて、規定値以上の大きさの動きが一定方向に一定時間以上連続で発生した場合に、パンニング又はチルティングが行われていると判定することが好ましい。所定位置は、撮像光学系の光学中心であることが好ましい。 Also, when the power is turned ON, it may be executed to return control step. Furthermore , it has a step of determining whether panning or tilting is performed based on the detection result of each camera shake detection means, and when it is determined that panning or tilting is performed, return control is performed. A step may be executed . In the pan / tilt determination step, panning or tilting is performed when a motion with a magnitude greater than a specified value continuously occurs in a certain direction for a certain period of time or longer based on the detection result of each camera shake detection means. It is preferable to determine. The predetermined position is preferably the optical center of the imaging optical system.

本発明では、各補正部を予め決められた所定位置に移動させる際に、各補正部の所定位置への移動が同時に完了するように各駆動手段を制御するようにしたので、各補正部の所定位置への復帰タイミングのバラツキにともなう視差ズレを防止することができる。   In the present invention, when each correction unit is moved to a predetermined position, each driving unit is controlled so that the movement of each correction unit to the predetermined position is completed at the same time. It is possible to prevent a parallax shift caused by variations in the return timing to the predetermined position.

ステレオカメラの外観構成を示す斜視図である。It is a perspective view which shows the external appearance structure of a stereo camera. ステレオカメラの外観構成を示す背面図である。It is a rear view which shows the external appearance structure of a stereo camera. ステレオカメラの内部構成を概略的に示すブロック図である。It is a block diagram which shows roughly the internal structure of a stereo camera. 各撮像部の補正限界領域を示す説明図である。It is explanatory drawing which shows the correction limit area | region of each imaging part. 第1CCDが先に補正限界領域に達した場合を示す説明図である。It is explanatory drawing which shows the case where 1st CCD reaches | attains the correction limit area | region previously. 目標位置軌道から補間した制御データの一例を示す説明図である。It is explanatory drawing which shows an example of the control data interpolated from the target position orbit. ステレオカメラの動作を示すフローチャートである。It is a flowchart which shows operation | movement of a stereo camera. 電源ON時に各CCDを光学中心に復帰させる場合のフローチャートである。It is a flowchart in the case of returning each CCD to the optical center when the power is turned on. パン・チルトを判定する場合のブロック図である。It is a block diagram in the case of determining pan / tilt. パン・チルトを判定した際に各CCDを光学中心に復帰させる場合のフローチャートである。It is a flowchart in the case of returning each CCD to the optical center when pan / tilt is determined. 直線の制御データの一例を示す説明図である。It is explanatory drawing which shows an example of the control data of a straight line. 一方を遅延させる場合の制御データの一例を示す説明図である。It is explanatory drawing which shows an example of the control data in the case of delaying one side.

図1に示すように、ステレオカメラ(複眼カメラ)2は、略矩形に形成されたカメラ本体2aを備えている。カメラ本体2aには、第1及び第2の2つの撮像部(撮像光学系)3、4が設けられている。各撮像部3、4は、カメラ本体2aの前面からその一部を露呈させ、それぞれの光軸が略平行になるように並べて配置されている。ステレオカメラ2は、各撮像部3、4のそれぞれで撮影を行うことによって両眼視差の生じる一対の画像を取得する。そして、取得した各画像を合成することにより、立体視可能な画像(以下、立体画像と称す)を生成する。   As shown in FIG. 1, the stereo camera (compound camera) 2 includes a camera body 2a formed in a substantially rectangular shape. The camera body 2a is provided with first and second imaging units (imaging optical systems) 3 and 4. Each of the imaging units 3 and 4 is arranged side by side so that a part of the imaging unit 3 and 4 is exposed from the front surface of the camera body 2a and the optical axes thereof are substantially parallel. The stereo camera 2 acquires a pair of images in which binocular parallax occurs by performing shooting with each of the imaging units 3 and 4. Then, by synthesizing the acquired images, a stereoscopically viewable image (hereinafter referred to as a stereoscopic image) is generated.

第1撮像部3は、第1撮像レンズ5が組み込まれた第1レンズ鏡筒6を有している。同様に、第2撮像部4は、第2撮像レンズ7が組み込まれた第2レンズ鏡筒8を有している。各レンズ鏡筒6、8は、電源オフ時及び取得した画像の再生時には図中二点鎖線で示すようにカメラ本体2aの内部に収納された収納位置に沈胴し、撮影時には図中実線で示すようにカメラ本体2aの前面側に突出した撮影位置に繰り出す。また、カメラ本体2aの前面には、被写体にフラッシュ光を照射して被写体を照明するためのフラッシュ発光部10が設けられている。   The first imaging unit 3 has a first lens barrel 6 in which a first imaging lens 5 is incorporated. Similarly, the second imaging unit 4 has a second lens barrel 8 in which a second imaging lens 7 is incorporated. Each of the lens barrels 6 and 8 is retracted to the storage position stored in the camera body 2a as indicated by a two-dot chain line in the figure when the power is turned off and the acquired image is reproduced, and is indicated by a solid line in the figure when photographing. Thus, the camera body 2a is extended to the photographing position protruding to the front side. A flash light emitting unit 10 for illuminating the subject by irradiating the subject with flash light is provided on the front surface of the camera body 2a.

カメラ本体2aの上面には、撮影の実行を指示するためのシャッタボタン11と、電源のON/OFFを切り替えるための電源スイッチ12と、ステレオカメラ2に設けられた各種のモードを切り替えるためのモード切替ダイヤル13とが設けられている。ステレオカメラ2は、静止画の立体画像を取得するための静止画撮影モードと、動画の立体画像を取得するための動画撮影モードと、取得した立体画像を再生表示するための再生モードとを有している。これらの各モードは、モード切替ダイヤル13を回転操作することで切り替えられる。静止画撮影モードでは、シャッタボタン11を押下操作することで撮影の実行が指示され、その時の被写体像が静止画の立体画像として取得される。動画撮影モードでは、シャッタボタン11を押下操作することで記録が開始されるとともに、この状態で再びシャッタボタン11を押下操作することで記録が停止され、この間の被写体像が動画の立体画像として取得される。   On the upper surface of the camera body 2a, a shutter button 11 for instructing execution of photographing, a power switch 12 for switching on / off the power, and modes for switching various modes provided in the stereo camera 2 A switching dial 13 is provided. The stereo camera 2 has a still image shooting mode for acquiring a stereoscopic image of a still image, a moving image shooting mode for acquiring a stereoscopic image of a moving image, and a playback mode for reproducing and displaying the acquired stereoscopic image. doing. Each of these modes can be switched by rotating the mode switching dial 13. In the still image shooting mode, the execution of shooting is instructed by pressing the shutter button 11, and the subject image at that time is acquired as a stereoscopic image of the still image. In the moving image shooting mode, recording is started by depressing the shutter button 11 and recording is stopped by depressing the shutter button 11 again in this state, and the subject image is acquired as a stereoscopic image of the moving image. Is done.

図2に示すように、カメラ本体2aの背面には、各撮像レンズ5、7をワイド側もしくはテレ側に変倍するズーム操作を行うためのズームボタン14と、取得した立体画像や撮影待機時のいわゆるスルー画及び各種のメニュー画面などを表示するための液晶ディスプレイ15と、メニュー画面の表示を指示するためのメニューボタン16と、メニュー画面上の各種のメニューの選択や設定に用いる十字キー17とが設けられている。   As shown in FIG. 2, on the back surface of the camera body 2a, a zoom button 14 for performing a zoom operation for changing the magnification of the imaging lenses 5 and 7 to the wide side or the tele side, and the acquired stereoscopic image or standby for shooting. A so-called through image and a liquid crystal display 15 for displaying various menu screens, a menu button 16 for instructing display of the menu screen, and a cross key 17 for selecting and setting various menus on the menu screen. And are provided.

液晶ディスプレイ15は、表面にレンチキュラレンズが設けられた、いわゆる三次元ディスプレイになっている。これにより、ステレオカメラ2では、液晶ディスプレイ15に表示された立体画像を裸眼で立体視することができる。   The liquid crystal display 15 is a so-called three-dimensional display in which a lenticular lens is provided on the surface. Thereby, in the stereo camera 2, the stereoscopic image displayed on the liquid crystal display 15 can be stereoscopically viewed with the naked eye.

図3に示すように、第1撮像部3は、第1レンズ鏡筒6、第1繰出しモータ31、第1フォーカスモータ32、第1モータドライバ33、第1CCD(補正部)35、第1タイミングジェネレータ(以下、TGと称す)36、第1CDS37、第1AMP38、第1A/D変換器39、及び第1手振れ補正部40で構成されている。   As shown in FIG. 3, the first imaging unit 3 includes a first lens barrel 6, a first feeding motor 31, a first focus motor 32, a first motor driver 33, a first CCD (correction unit) 35, and a first timing. A generator (hereinafter referred to as TG) 36, a first CDS 37, a first AMP 38, a first A / D converter 39, and a first camera shake correction unit 40 are configured.

第1レンズ鏡筒6には、第1撮像レンズ5としてズームレンズ5a、フォーカスレンズ5b、絞り5cが組み込まれている。第1レンズ鏡筒6の撮影位置への繰り出しと、収納位置への沈胴は、第1繰出しモータ31の駆動によって行われる。ズームレンズ5a及びフォーカスレンズ5bの光軸方向への進退移動は、第1フォーカスモータ32の駆動によって行われる。各モータ31、32は、第1モータドライバ33に接続されている。第1モータドライバ33は、ステレオカメラ2を統括的に制御するCPU(制御手段)70に接続されており、CPU70からの制御信号に応じて各モータ31、32を駆動させる。   In the first lens barrel 6, a zoom lens 5a, a focus lens 5b, and a diaphragm 5c are incorporated as the first imaging lens 5. The first lens barrel 6 is extended to the photographing position and retracted to the storage position by driving the first extension motor 31. The zoom lens 5 a and the focus lens 5 b are moved back and forth in the optical axis direction by driving the first focus motor 32. Each motor 31, 32 is connected to a first motor driver 33. The first motor driver 33 is connected to a CPU (control means) 70 that comprehensively controls the stereo camera 2, and drives the motors 31 and 32 in accordance with a control signal from the CPU 70.

第1撮像レンズ5の背後には、第1CCD35が配置されている。第1撮像レンズ5は、この第1CCD35の受光面に被写体像を結像させる。第1CCD35は、第1TG36に接続されている。第1TG36は、CPU70に接続されており、CPU70の制御の下、タイミング信号(クロックパルス)を第1CCD35に入力する。第1CCD35は、このタイミング信号に応じて受光面に結像された被写体像の撮像を行い、被写体像に対応した撮像信号を出力する。   A first CCD 35 is disposed behind the first imaging lens 5. The first imaging lens 5 forms a subject image on the light receiving surface of the first CCD 35. The first CCD 35 is connected to the first TG 36. The first TG 36 is connected to the CPU 70 and inputs a timing signal (clock pulse) to the first CCD 35 under the control of the CPU 70. The first CCD 35 captures the subject image formed on the light receiving surface in accordance with the timing signal, and outputs an imaging signal corresponding to the subject image.

第1CCD35から出力された撮像信号は、相関二重サンプリング回路である第1CDS37に入力される。第1CDS37は、入力された撮像信号を第1CCD35の各セルの蓄積電荷量に正確に対応したR、G、Bの画像データとして出力する。第1CDS37から出力された画像データは、第1AMP38で増幅され、さらに第1A/D変換器39でデジタルデータに変換される。このデジタル化された画像データは、第1A/D変換器39から右眼画像データとして画像入力コントローラ71に出力される。   The imaging signal output from the first CCD 35 is input to the first CDS 37 which is a correlated double sampling circuit. The first CDS 37 outputs the input imaging signal as R, G, and B image data that accurately corresponds to the accumulated charge amount of each cell of the first CCD 35. The image data output from the first CDS 37 is amplified by the first AMP 38 and further converted into digital data by the first A / D converter 39. The digitized image data is output from the first A / D converter 39 to the image input controller 71 as right eye image data.

第1手振れ補正部40は、撮影時の手振れにともなって立体画像に視差ズレが生じることを防ぐためのものであり、揺れを打ち消す方向に第1CCD35を移動させることによって手振れを防止する、いわゆるイメージセンサシフト方式の手振れ防止機能を実現する。実現方式はレンズシフト方式の手振れ防止機能であってもよい。第1手振れ補正部40は、手振れ検出センサ41と、位置検出センサ42と、駆動回路43とで構成されている。手振れ検出センサ41は、例えばジャイロセンサなどであり、第1CCD35の垂直方向及び水平方向の揺れを検出し、その検出結果をCPU70に出力する。位置検出センサ42は、例えばリニアエンコーダやポテンショメータなどであり、第1CCD35の垂直方向及び水平方向の位置を検出し、その検出結果をCPU70に出力する。   The first camera shake correction unit 40 is for preventing a parallax shift from occurring in a stereoscopic image due to a camera shake at the time of shooting. A sensor shift type camera shake prevention function is realized. The realization method may be a camera-shake prevention function of a lens shift method. The first camera shake correction unit 40 includes a camera shake detection sensor 41, a position detection sensor 42, and a drive circuit 43. The camera shake detection sensor 41 is a gyro sensor, for example, and detects the vertical and horizontal shaking of the first CCD 35 and outputs the detection result to the CPU 70. The position detection sensor 42 is, for example, a linear encoder or a potentiometer, detects the vertical and horizontal positions of the first CCD 35, and outputs the detection result to the CPU 70.

駆動回路43は、第1CCD35を垂直方向に移動させる垂直用アクチュエータと、第1CCD35を水平方向に移動させる水平用アクチュエータとを備えており、CPU70からの駆動信号に応じて各アクチュエータを駆動することによって第1CCD35を垂直・水平の各方向に移動させる。CPU70は、各センサ41、42の検出結果を基に、揺れを打ち消す方向に第1CCD35を移動させる駆動信号を生成し、その駆動信号を駆動回路43に入力する。これにより、手振れにともなう立体画像の視差ズレが抑えられる。   The drive circuit 43 includes a vertical actuator that moves the first CCD 35 in the vertical direction and a horizontal actuator that moves the first CCD 35 in the horizontal direction, and drives each actuator according to a drive signal from the CPU 70. The first CCD 35 is moved in the vertical and horizontal directions. Based on the detection results of the sensors 41 and 42, the CPU 70 generates a drive signal for moving the first CCD 35 in the direction to cancel the shaking, and inputs the drive signal to the drive circuit 43. Thereby, the parallax shift of the three-dimensional image accompanying a camera shake is suppressed.

第2撮像部4は、第1撮像部3と同様に、第2レンズ鏡筒8、第2繰出しモータ51、第2フォーカスモータ52、第2モータドライバ53、第2CCD(補正部)55、第2TG56、第2CDS57、第2AMP58、第2A/D変換器59、及び第2手振れ補正部60で構成されている。これらの各部は、第1撮像部3のものと同様であるので、詳細な説明は省略する。第2CCD55によって撮像され、第2CDS57、第2AMP58を経由した後、第2A/D変換器59によってデジタルデータに変換され画像データは、第2A/D変換器59から左眼画像データとして画像入力コントローラ71に出力される。   Similar to the first imaging unit 3, the second imaging unit 4 includes a second lens barrel 8, a second feeding motor 51, a second focus motor 52, a second motor driver 53, a second CCD (correction unit) 55, a second CCD. 2TG56, 2nd CDS57, 2nd AMP58, 2nd A / D converter 59, and the 2nd camera-shake correction part 60 are comprised. Since these units are the same as those of the first imaging unit 3, detailed description thereof is omitted. The image is picked up by the second CCD 55, passes through the second CDS 57 and the second AMP 58, and then converted into digital data by the second A / D converter 59. The image data is converted from the second A / D converter 59 to the left eye image data as the image input controller 71. Is output.

画像入力コントローラ71は、データバス72を介してCPU70に接続されている。画像入力コントローラ71は、CPU70の制御の下、各撮像部3、4から入力された各画像データをSDRAM73に記憶させる。画像信号処理回路74は、SDRAM73から各画像データを読み出し、階調変換、ホワイトバランス補正、γ補正などの各種の画像処理を各画像データに施す。そして、処理後の各画像データを再びSDRAM73に記憶させる。   The image input controller 71 is connected to the CPU 70 via the data bus 72. The image input controller 71 stores each image data input from each imaging unit 3, 4 in the SDRAM 73 under the control of the CPU 70. The image signal processing circuit 74 reads each image data from the SDRAM 73 and performs various image processing such as gradation conversion, white balance correction, and γ correction on each image data. Then, each processed image data is stored in the SDRAM 73 again.

立体画像生成回路75は、画像信号処理回路74で各種の処理が施された各画像データをSDRAM73から読み出す。そして、各画像データを上下方向に長い短冊状の画像になるように分割した後、それらを交互に並べて合成することにより、液晶ディスプレイ15に対応したレンチキュラレンズ方式の立体画像データを生成し、その立体画像データをSDRAM73に記憶させる。   The stereoscopic image generation circuit 75 reads out each image data that has been subjected to various processes by the image signal processing circuit 74 from the SDRAM 73. Then, after dividing each image data into strip-like images that are long in the vertical direction, they are alternately arranged and combined to generate lenticular lens type stereoscopic image data corresponding to the liquid crystal display 15, The stereoscopic image data is stored in the SDRAM 73.

液晶ドライバ76は、SDRAM73から立体画像データを読み出し、アナログのコンポジット信号に変換して液晶ディスプレイ15に出力する。これにより、裸眼で立体視可能な立体画像がスルー画として液晶ディスプレイ15に表示される。   The liquid crystal driver 76 reads stereoscopic image data from the SDRAM 73, converts it into an analog composite signal, and outputs it to the liquid crystal display 15. As a result, a stereoscopic image that can be stereoscopically viewed with the naked eye is displayed on the liquid crystal display 15 as a through image.

圧縮伸張処理回路77は、立体画像データをTIFFやJPEGなどの所定の圧縮形式で圧縮する。メディアコントローラ78は、メディアスロットに着脱自在に装着された記録メディア80にアクセスし、圧縮された立体画像データを記録メディア80に読み書きする。   The compression / decompression processing circuit 77 compresses the stereoscopic image data in a predetermined compression format such as TIFF or JPEG. The media controller 78 accesses the recording medium 80 that is detachably attached to the media slot, and reads / writes compressed stereoscopic image data to / from the recording medium 80.

CPU70には、シャッタボタン11、電源スイッチ12、モード切替ダイヤル13、ズームボタン14、メニューボタン16、十字キー17の各操作部材が接続されている。これらの各操作部材は、ユーザによる操作を検出し、その検出結果をCPU70に入力する。シャッタボタン11は、2段階押しのスイッチになっている。シャッタボタン11を軽く押圧(半押し)すると、各撮像レンズ5、7の焦点調整や露光調整などの各種撮影準備処理が施される。この状態でシャッタボタン11をもう一度強く押圧(全押し)すると、各撮像部3、4の1画面分の撮像信号が画像データに変換される。電源スイッチ12は、スライド式のスイッチになっている(図1参照)。電源スイッチ12をON位置に移動させると、図示を省略したバッテリの電力が各部に供給され、ステレオカメラ2が起動する。そして、電源スイッチ12をOFF位置に移動させると、電力の供給が停止され、ステレオカメラ2が停止状態になる。   The CPU 70 is connected to the shutter button 11, the power switch 12, the mode switching dial 13, the zoom button 14, the menu button 16, and the cross key 17. Each of these operation members detects an operation by the user and inputs the detection result to the CPU 70. The shutter button 11 is a two-stage push switch. When the shutter button 11 is lightly pressed (half-pressed), various shooting preparation processes such as focus adjustment and exposure adjustment of the imaging lenses 5 and 7 are performed. In this state, when the shutter button 11 is strongly pressed once again (fully pressed), the imaging signals for one screen of the imaging units 3 and 4 are converted into image data. The power switch 12 is a slide type switch (see FIG. 1). When the power switch 12 is moved to the ON position, battery power (not shown) is supplied to each unit, and the stereo camera 2 is activated. When the power switch 12 is moved to the OFF position, the power supply is stopped and the stereo camera 2 is stopped.

CPU70は、電源スイッチ12及びモード切替ダイヤル13の操作が検出されると、これらの操作に応じて各繰出しモータ31、51を駆動し、各レンズ鏡筒6、8を沈胴/繰り出しさせる。また、CPU70は、ズームボタン14の操作が検出されると、これに応じて各フォーカスモータ32、52を駆動し、各ズームレンズ5a、7aを光軸方向に進退移動させてズーム倍率を変化させる。   When the operation of the power switch 12 and the mode switching dial 13 is detected, the CPU 70 drives the feeding motors 31 and 51 according to these operations to retract / extend the lens barrels 6 and 8. Further, when the operation of the zoom button 14 is detected, the CPU 70 drives the focus motors 32 and 52 according to the detected operation, and moves the zoom lenses 5a and 7a back and forth in the optical axis direction to change the zoom magnification. .

CPU70には、各駆動回路43、63を駆動して各CCD35、55を移動させた際に、各CCD35、55が手振れ補正の限界領域に達したか否かを判定するための補正限界判定部82と、各CCD35、55を光学中心に復帰させる際の制御データを算出する制御データ算出部84とが設けられている。補正限界判定部82には、第1手振れ補正部40の補正限界領域を示す第1限界領域データ82aと、第2手振れ補正部60の補正限界領域を示す第2限界領域データ82bとが記憶されている。   The CPU 70 has a correction limit determination unit for determining whether or not each of the CCDs 35 and 55 has reached a camera shake correction limit region when the drive circuits 43 and 63 are driven and the CCDs 35 and 55 are moved. 82 and a control data calculation unit 84 for calculating control data when the CCDs 35 and 55 are returned to the optical center. The correction limit determination unit 82 stores first limit region data 82a indicating the correction limit region of the first camera shake correction unit 40 and second limit region data 82b indicating the correction limit region of the second camera shake correction unit 60. ing.

図4は、第1CCD35の受光面を35a、駆動回路43による第1CCD35の移動可能範囲を90R、第1撮像レンズ5が結像させた被写体像のイメージサークルを91R、第1手振れ補正部40の補正限界領域を92R、第2CCD55の受光面を55a、駆動回路63による第2CCD55の移動可能範囲を90L、第2撮像レンズ7が結像させた被写体像のイメージサークルを91L、第2手振れ補正部60の補正限界領域を92Lとして示している。   4 shows the light receiving surface of the first CCD 35 as 35a, the movable range of the first CCD 35 by the drive circuit 43 as 90R, the image circle of the subject image formed by the first imaging lens 5 as 91R, and the first camera shake correction unit 40. The correction limit area is 92R, the light receiving surface of the second CCD 55 is 55a, the movable range of the second CCD 55 by the drive circuit 63 is 90L, the image circle of the subject image formed by the second imaging lens 7 is 91L, and the second camera shake correction unit 60 correction limit regions are shown as 92L.

図4から分るように、補正限界領域92R、92Lとは、各駆動回路43、63を駆動して各CCD35、55を移動させた際にも、各CCD35、55の受光面35a、55aに被写体像のケラレが生じない略矩形状の領域のことである。そして、第1限界領域データ82aとは、補正限界領域92Rを示す座標データであり、第2限界領域データ82bとは、補正限界領域92Lを示す座標データである。   As can be seen from FIG. 4, the correction limit regions 92R and 92L are formed on the light receiving surfaces 35a and 55a of the CCDs 35 and 55 even when the drive circuits 43 and 63 are driven and the CCDs 35 and 55 are moved. This is a substantially rectangular area where vignetting of the subject image does not occur. The first limit area data 82a is coordinate data indicating the correction limit area 92R, and the second limit area data 82b is coordinate data indicating the correction limit area 92L.

各限界領域データ82a、82bは、例えば、各駆動回路43、63を駆動して各移動可能範囲90R、90Lの四隅に各CCD35、55を移動させながら撮影を行い、画像からケラレの生じる境界を割り出して各補正限界領域92R、92Lを推定することにより求めることができる。なお、各限界領域データ82a、82bは、各撮像部3、4の設計値に基づいて算出してもよいが、図4に示すように、各補正限界領域92R、92Lには、各撮像部3、4の各部の組み付け誤差や寸法誤差によって形状や位置にバラツキが生じる。従って、上記のように画像から求めるようにすることで、より精度の高い各限界領域データ82a、82bを得ることができる。   For example, each limit area data 82a and 82b is shot while moving the CCDs 35 and 55 to the four corners of the movable ranges 90R and 90L by driving the drive circuits 43 and 63, and the boundary where vignetting occurs from the image. It can be obtained by calculating and estimating the respective correction limit areas 92R and 92L. The limit area data 82a and 82b may be calculated based on the design values of the imaging units 3 and 4. However, as shown in FIG. 4, the correction limit areas 92R and 92L include the respective imaging units. Variations in shape and position occur due to assembly errors and dimensional errors of the parts 3 and 4. Therefore, by obtaining from the image as described above, it is possible to obtain each of the limit area data 82a and 82b with higher accuracy.

CPU70は、各手振れ検出センサ41、61、及び各位置検出センサ42、62の検出結果を基に各駆動回路43、63の駆動信号を生成する際に、各位置検出センサ42、62の検出結果を補正限界判定部82に入力する。補正限界判定部82は、各位置検出センサ42、62の検出結果が入力されると、位置検出センサ42の検出結果と第1限界領域データ82aとを基に、第1CCD35の位置が補正限界領域92Rの内側か否かを確認することによって第1CCD35が補正限界領域92Rに達したか否かを判定するとともに、位置検出センサ62の検出結果と第2限界領域データ82bとを基に、第2CCD55の位置が補正限界領域92Lの内側か否かを確認することによって第2CCD55が補正限界領域92Lに達したか否かを判定し、これらの判定結果を出力する。   When the CPU 70 generates drive signals for the drive circuits 43 and 63 based on the detection results of the camera shake detection sensors 41 and 61 and the position detection sensors 42 and 62, the detection results of the position detection sensors 42 and 62. Is input to the correction limit determination unit 82. When the detection results of the position detection sensors 42 and 62 are input to the correction limit determination unit 82, the position of the first CCD 35 is determined based on the detection result of the position detection sensor 42 and the first limit area data 82a. It is determined whether the first CCD 35 has reached the correction limit area 92R by checking whether it is inside the 92R, and the second CCD 55 is based on the detection result of the position detection sensor 62 and the second limit area data 82b. It is determined whether or not the second CCD 55 has reached the correction limit area 92L by confirming whether or not the position is inside the correction limit area 92L, and these determination results are output.

各CCD35、55を移動させた場合、各補正限界領域92R、92Lのバラツキや各手振れ検出センサ41、61の検出量の違いなどから、各CCD35、55の一方のみが先に補正限界領域92R、92Lに達してしまうことがある。この場合に、先に到達した側の移動を停止させたまま他方をさらに移動させてしまうと、立体画像に視差ズレが生じてしまう。このため、CPU70は、各CCD35、55の一方でも補正限界領域92R、92Lに達したと補正限界判定部82が判定すると、各CCD35、55を光学中心に復帰させると判断する。そして、CPU70は、各CCD35、55を光学中心に復帰させると判断すると、各位置検出センサ42、62の検出結果を制御データ算出部84に入力し、制御データ算出部84に制御データの算出を指示する。   When each of the CCDs 35 and 55 is moved, only one of the CCDs 35 and 55 is corrected first because of variations in the correction limit regions 92R and 92L and differences in detection amounts of the camera shake detection sensors 41 and 61. It may reach 92L. In this case, if the other side is further moved while the movement of the side that has arrived first is stopped, a parallax shift occurs in the stereoscopic image. Therefore, when the correction limit determination unit 82 determines that one of the CCDs 35 and 55 has reached the correction limit regions 92R and 92L, the CPU 70 determines that the CCDs 35 and 55 are returned to the optical center. When the CPU 70 determines that the CCDs 35 and 55 are to be returned to the optical center, the detection results of the position detection sensors 42 and 62 are input to the control data calculation unit 84 and the control data calculation unit 84 calculates the control data. Instruct.

制御データ算出部84には、第1撮像レンズ5の光学中心位置を示す第1光学中心位置データ84aと、第2撮像レンズ7の光学中心位置を示す第2光学中心位置データ84bとが記憶されている。第1光学中心位置データ84aは、第1限界領域データ82aを基に、補正限界領域92Rの中心位置を算出することによって求められる。第2光学中心位置データ84bも、同様の手順で求められる。   The control data calculation unit 84 stores first optical center position data 84a indicating the optical center position of the first imaging lens 5, and second optical center position data 84b indicating the optical center position of the second imaging lens 7. ing. The first optical center position data 84a is obtained by calculating the center position of the correction limit area 92R based on the first limit area data 82a. The second optical center position data 84b is obtained in the same procedure.

制御データ算出部84は、制御データの算出が指示されると、図5に示すように、位置検出センサ42の検出結果と第1光学中心位置データ84aとを基に、第1CCD35の受光面35aの中心から第1撮像レンズ5の光学中心までの移動量を示す垂直方向の距離D1v、水平方向の距離D1hを算出する。同様に、位置検出センサ62の検出結果と第2光学中心位置データ84bとを基に、第2CCD55の受光面55aの中心から第2撮像レンズ7の光学中心までの移動量を示す垂直方向の距離D2v、水平方向の距離D2hを算出する。   When the control data calculation unit 84 is instructed to calculate the control data, the light receiving surface 35a of the first CCD 35 is based on the detection result of the position detection sensor 42 and the first optical center position data 84a as shown in FIG. A vertical distance D1v and a horizontal distance D1h indicating the amount of movement from the center to the optical center of the first imaging lens 5 are calculated. Similarly, the vertical distance indicating the amount of movement from the center of the light receiving surface 55a of the second CCD 55 to the optical center of the second imaging lens 7 based on the detection result of the position detection sensor 62 and the second optical center position data 84b. D2v and horizontal distance D2h are calculated.

ここで、例えばカメラ本体2aが斜めに傾いて第2CCD55の補正量よりも第1CCD35の補正量の方が大きくなり、第1CCD35が先に補正限界領域92Rに達した場合には、図5に示すように、D2v、D2hよりもD1v、D1hの方が長くなる。このように各距離の値に差が生じた場合に、各CCD35、55を同じ速度で光学中心に向かわせてしまうと、距離の短い側が先に光学中心に復帰してしまうため、各CCD35、55の光学中心に復帰するタイミングが合わなくなる。そして、こうした各CCD35、55の復帰タイミングのバラツキは、立体画像に視差ズレを生じさせてしまう。   Here, for example, when the camera body 2a is inclined obliquely and the correction amount of the first CCD 35 is larger than the correction amount of the second CCD 55, and the first CCD 35 reaches the correction limit region 92R first, it is shown in FIG. Thus, D1v and D1h are longer than D2v and D2h. In this way, when there is a difference between the values of the distances, if the CCDs 35 and 55 are moved toward the optical center at the same speed, the shorter distance side first returns to the optical center. The timing to return to the optical center of 55 is not suitable. Such variations in the return timings of the CCDs 35 and 55 cause a parallax shift in the stereoscopic image.

このため、制御データ算出部84は、図6のグラフ(a)、(b)に示すように、第1CCD35がt1[s]後にD1v[mm]移動するように第1CCD35の垂直方向の制御データを算出するとともに、第2CCD55が同じt1[s]後にD2v[mm]移動するように第2CCD55の垂直方向の制御データを算出する。同様に、制御データ算出部84は、図6のグラフ(c)、(d)に示すように、第1CCD35がt2[s]後にD1h[mm]移動するように第1CCD35の水平方向の制御データを算出するとともに、第2CCD55が同じt2[s]後にD2h[mm]移動するように第2CCD55の水平方向の制御データを算出する。このように、制御データ算出部84は、各CCD35、55の光学中心への移動が同時に完了するように各制御データを算出する。   Therefore, the control data calculation unit 84 controls the vertical control data of the first CCD 35 so that the first CCD 35 moves D1v [mm] after t1 [s] as shown in the graphs (a) and (b) of FIG. And the control data in the vertical direction of the second CCD 55 is calculated so that the second CCD 55 moves D2v [mm] after the same t1 [s]. Similarly, as shown in graphs (c) and (d) of FIG. 6, the control data calculation unit 84 controls the horizontal control data of the first CCD 35 so that the first CCD 35 moves D1h [mm] after t2 [s]. And the horizontal control data of the second CCD 55 is calculated so that the second CCD 55 moves D2h [mm] after the same t2 [s]. As described above, the control data calculation unit 84 calculates the control data so that the movement of the CCDs 35 and 55 to the optical center is completed at the same time.

なお、時間t1は、例えば、D1v、D2vのうちの距離の長い側をD、各駆動回路43、63の性能に応じた平均的な移動速度をVaveとしたとき、t1=D/Vaveとして算出する。すなわち、t1は、距離の長い側の平均移動時間として算出すればよい。そして、時間t2も同様に、D1h、D2hのうちの距離の長い側の平均移動時間として算出すればよい。また、D1v、D2v、D1h、D2hが最大のとき、すなわち各CCD35、55が補正限界領域92R、92Lの四隅にあるときでも各駆動回路43、63の駆動に応じて光学中心に復帰可能な範囲の所定値として各時間t1、t2を予め決めておいてもよい。   The time t1 is calculated as t1 = D / Vave, where D is the longer distance of D1v and D2v, and Vave is the average moving speed according to the performance of the drive circuits 43 and 63, for example. To do. That is, t1 may be calculated as an average moving time on the longer distance side. Similarly, the time t2 may be calculated as an average moving time on the longer side of D1h and D2h. In addition, even when D1v, D2v, D1h, and D2h are maximum, that is, when the CCDs 35 and 55 are at the four corners of the correction limit regions 92R and 92L, the range that can return to the optical center according to the driving of the driving circuits 43 and 63 Each time t1, t2 may be determined in advance as a predetermined value.

制御データ算出部84が算出する制御データとは、所定時間経過後の各CCD35、55の移動量を示す時系列データである。そして、制御データ算出部84は、図6の各グラフ(a)〜(d)に示すように、横軸を時間、縦軸を移動量とした際に、移動開始から移動完了時までの位置・速度・加速度が連続になるような目標軌道を生成し、これを補間することにより時系列データとしての制御データを得る。このような制御データとしては、例えば、図示のように移動開始直後及び移動完了直前の移動量を小さくした3次関数曲線が挙げられる。こうすれば、各CCD35、55が滑らかに移動するので、各CCD35、55の移動にともなって異音が生じることを防ぐことができる。なお、このような制御データの算出手法には、例えば、3次スプライン、ベジエ曲線、躍度最小軌道、6次関数近似など、位置、速度、加速度まで微分可能な目標位置軌道から補間した時系列データを生成可能な任意の手法を用いればよい。   The control data calculated by the control data calculation unit 84 is time-series data indicating the movement amounts of the CCDs 35 and 55 after a predetermined time has elapsed. Then, as shown in graphs (a) to (d) of FIG. 6, the control data calculation unit 84 has a position from the start of movement to the end of movement when the horizontal axis is time and the vertical axis is the movement amount. -A target trajectory with continuous speed and acceleration is generated and interpolated to obtain control data as time series data. Examples of such control data include a cubic function curve in which the amount of movement immediately after the start of movement and immediately before the completion of movement is reduced as shown in the figure. By doing so, each of the CCDs 35 and 55 moves smoothly, so that it is possible to prevent abnormal noise from being generated as the CCDs 35 and 55 move. Note that such control data calculation methods include, for example, time series interpolated from target position trajectories that can be differentiated to position, velocity, and acceleration, such as cubic splines, Bezier curves, minimum jerk trajectories, and sixth-order function approximation. Any method that can generate data may be used.

制御データ算出部84は、各制御データを算出すると、それらの各制御データをCPU70に出力する。CPU70は、各制御データを受け取ると、各制御データに基づいて各駆動回路43、63の駆動信号を生成し、その駆動信号を各駆動回路43、63に入力する。これにより、各制御データに応じた軌道に沿って各CCD35、55が移動し、各CCD35、55の光学中心への移動が同時に完了する。   When the control data calculation unit 84 calculates each control data, the control data calculation unit 84 outputs each control data to the CPU 70. When receiving each control data, the CPU 70 generates a drive signal for each drive circuit 43, 63 based on each control data, and inputs the drive signal to each drive circuit 43, 63. As a result, the CCDs 35 and 55 move along the trajectory corresponding to the control data, and the movement of the CCDs 35 and 55 to the optical center is completed simultaneously.

次に、図7に示すフローチャートを参照しながら、上記構成によるステレオカメラ2の作用について説明する。電源スイッチ12をON位置にしてステレオカメラ2を起動させ、静止画撮影モードもしくは動画撮影モードにして撮影を開始すると、液晶ディスプレイ15に立体画像がスルー画として表示される。静止画撮影モード及び動画撮影モードでは、各手振れ検出センサ41、61の検出結果、及び各位置検出センサ42、62の検出結果がCPU70に入力される。CPU70は、各センサ41、42、61、62の検出結果を基に、揺れを打ち消す方向に各CCD35、55を移動させる駆動信号を生成し、その駆動信号を各駆動回路43、63に入力することで、手振れにともなう立体画像の視差ズレを防止する。   Next, the operation of the stereo camera 2 configured as described above will be described with reference to the flowchart shown in FIG. When the stereo camera 2 is activated by turning the power switch 12 to the ON position and shooting is started in the still image shooting mode or the moving image shooting mode, a stereoscopic image is displayed on the liquid crystal display 15 as a through image. In the still image shooting mode and the moving image shooting mode, the detection results of the camera shake detection sensors 41 and 61 and the detection results of the position detection sensors 42 and 62 are input to the CPU 70. Based on the detection results of the sensors 41, 42, 61, 62, the CPU 70 generates a drive signal for moving the CCDs 35, 55 in the direction to cancel the shaking, and inputs the drive signal to the drive circuits 43, 63. In this way, the parallax shift of the stereoscopic image due to camera shake is prevented.

また、この際、CPU70は、各位置検出センサ42、62の検出結果を補正限界判定部82に入力する。補正限界判定部82は、各位置検出センサ42、62の検出結果が入力されると、第1CCD35が補正限界領域92Rに達したか否かを判定するとともに、第2CCD55が補正限界領域92Lに達したか否かを判定し、これらの判定結果を出力する。   At this time, the CPU 70 inputs the detection results of the position detection sensors 42 and 62 to the correction limit determination unit 82. When the detection results of the position detection sensors 42 and 62 are input, the correction limit determination unit 82 determines whether or not the first CCD 35 has reached the correction limit region 92R, and the second CCD 55 has reached the correction limit region 92L. It is determined whether or not, and these determination results are output.

CPU70は、各CCD35、55の一方でも補正限界領域92R、92Lに達したと補正限界判定部82が判定すると、各CCD35、55を光学中心に復帰させると判断し、各位置検出センサ42、62の検出結果を制御データ算出部84に入力して制御データ算出部84に制御データの算出を指示する。   When the correction limit determination unit 82 determines that one of the CCDs 35 and 55 has reached the correction limit regions 92R and 92L, the CPU 70 determines that the CCDs 35 and 55 are returned to the optical center, and the position detection sensors 42 and 62 are detected. Is input to the control data calculation unit 84 to instruct the control data calculation unit 84 to calculate control data.

制御データ算出部84は、制御データの算出が指示されると、各CCD35、55の光学中心への移動が同時に完了するように各CCD35、55の垂直方向及び水平方向の各制御データを算出する。CPU70は、制御データ算出部84に各制御データを算出させると、それらの各制御データに基づいて各駆動回路43、63の駆動信号を生成し、その駆動信号を各駆動回路43、63に入力する。   When the control data calculation unit 84 is instructed to calculate the control data, the control data calculation unit 84 calculates the vertical and horizontal control data of the CCDs 35 and 55 so that the movement of the CCDs 35 and 55 to the optical center is completed at the same time. . When the control data calculation unit 84 calculates the control data, the CPU 70 generates drive signals for the drive circuits 43 and 63 based on the control data, and inputs the drive signals to the drive circuits 43 and 63. To do.

これにより、各制御データに応じた軌道に沿って各CCD35、55が移動し、各CCD35、55の光学中心への移動が同時に完了するので、各CCD35、55の光学中心への復帰タイミングのバラツキにともなう立体画像の視差ズレが防止される。また、移動開始から移動完了時までの位置・速度・加速度が連続になるように各制御データを算出したので、各CCD35、55の移動にともなって異音が生じることもない。   As a result, the CCDs 35 and 55 are moved along the trajectory corresponding to the control data, and the movement of the CCDs 35 and 55 to the optical center is completed at the same time. Thus, the parallax shift of the stereoscopic image is prevented. In addition, since each control data is calculated so that the position, velocity, and acceleration from the start of movement to the completion of movement are continuous, no abnormal noise is generated as the CCDs 35 and 55 move.

CPU70は、各CCD35、55を光学中心に復帰させたら、再び手振れを防止する処理を開始し、電源がOFFになるまで、あるいは再生モードになるまで上記の処理を繰り返す。   When the CPU 70 returns the CCDs 35 and 55 to the optical center, the CPU 70 starts processing for preventing camera shake again, and repeats the above processing until the power is turned off or the reproduction mode is entered.

次に、図8に示すフローチャートを参照しながら、本発明の第2の実施形態について説明する。電源スイッチ12をON位置にしてステレオカメラ2を起動させると、CPU70が各位置検出センサ42、62の検出結果を取得する。この後、CPU70は、取得した各位置検出センサ42、62の検出結果を制御データ算出部84に入力し、制御データ算出部84に制御データの算出を指示する。以下、上記第1の実施形態と同様の手順で各CCD35、55を光学中心に復帰させる。   Next, a second embodiment of the present invention will be described with reference to the flowchart shown in FIG. When the stereo camera 2 is activated with the power switch 12 in the ON position, the CPU 70 acquires the detection results of the position detection sensors 42 and 62. Thereafter, the CPU 70 inputs the obtained detection results of the position detection sensors 42 and 62 to the control data calculation unit 84 and instructs the control data calculation unit 84 to calculate control data. Thereafter, the CCDs 35 and 55 are returned to the optical center in the same procedure as in the first embodiment.

電源スイッチ12をOFF位置にした停止状態にステレオカメラ2がある場合には、振動などによって各CCD35、55の位置が動いてしまうことがある。このため、電源スイッチ12をON位置にしてステレオカメラ2を起動させた場合には、各CCD35、55を光学中心に復帰させる処理を行う必要がある。この際、上記のように、各CCD35、55の光学中心への移動が同時に完了するようにすれば、電源投入直後に視差のある立体画像がスルー画として液晶ディスプレイ15に表示されてしまうことを防ぐことができる。   When the stereo camera 2 is in a stopped state in which the power switch 12 is set to the OFF position, the positions of the CCDs 35 and 55 may move due to vibration or the like. For this reason, when the stereo camera 2 is activated with the power switch 12 in the ON position, it is necessary to perform processing for returning the CCDs 35 and 55 to the optical center. At this time, as described above, if the movement of the CCDs 35 and 55 to the optical center is completed at the same time, a stereoscopic image with parallax is displayed on the liquid crystal display 15 as a through image immediately after the power is turned on. Can be prevented.

次に、図9のブロック図、及び図10のフローチャートを参照しながら、本発明の第3の実施形態について説明する。図9に示すように、本実施形態のCPU70には、パンニング又はチルティングが行われているか否かを判定するためのパン・チルト判定部86が設けられている。CPU70は、各手振れ検出センサ41、61、及び各位置検出センサ42、62の検出結果を基に各駆動回路43、63の駆動信号を生成する際に、各手振れ検出センサ41、61の検出結果をパン・チルト判定部86に入力する。   Next, a third embodiment of the present invention will be described with reference to the block diagram of FIG. 9 and the flowchart of FIG. As shown in FIG. 9, the CPU 70 of the present embodiment is provided with a pan / tilt determination unit 86 for determining whether panning or tilting is being performed. When the CPU 70 generates drive signals for the drive circuits 43 and 63 based on the detection results of the camera shake detection sensors 41 and 61 and the position detection sensors 42 and 62, the detection results of the camera shake detection sensors 41 and 61. Is input to the pan / tilt determination unit 86.

パン・チルト判定部86は、各手振れ検出センサ41、61の検出結果を基に、規定値以上の大きさの動きが一定方向に一定時間以上連続で発生し、通常の手振れとは異なる補正しきれない大きな動きが発生したと判断した場合に、パンニング又はチルティングが行われていると判定する。   Based on the detection results of the camera shake detection sensors 41 and 61, the pan / tilt determination unit 86 generates a motion having a magnitude greater than a specified value continuously in a certain direction for a certain period of time, and corrects it different from normal camera shake. When it is determined that a large motion that cannot be performed has occurred, it is determined that panning or tilting is being performed.

図10のフローチャートに示すように、CPU70は、パンニング又はチルティングが行われているとパン・チルト判定部86が判定した際に、各CCD35、55を光学中心に復帰させると判断し、各位置検出センサ42、62の検出結果を制御データ算出部84に入力して制御データ算出部84に制御データの算出を指示する。そして、上記第1の実施形態と同様の手順で各CCD35、55を光学中心に復帰させる。   As shown in the flowchart of FIG. 10, when the pan / tilt determination unit 86 determines that panning or tilting is being performed, the CPU 70 determines that the CCDs 35 and 55 are to be returned to the optical center, and each position is determined. The detection results of the detection sensors 42 and 62 are input to the control data calculation unit 84 to instruct the control data calculation unit 84 to calculate control data. Then, the CCDs 35 and 55 are returned to the optical center in the same procedure as in the first embodiment.

こうすれば、パンニング又はチルティングによる立体画像の動きを誤って補正することを防止することができるとともに、これに応答して各CCD35、55を光学中心に復帰させる際に、立体画像に視差ズレが生じることを防ぐことができる。   In this way, it is possible to prevent the movement of the stereoscopic image due to panning or tilting from being erroneously corrected, and when the CCDs 35 and 55 are returned to the optical center in response to this, a parallax shift is added to the stereoscopic image. Can be prevented.

上記各実施形態では、各撮像部3、4の光学中心を所定位置として示したが、所定位置は、これに限ることなく、各補正限界領域92R、92L内の任意の位置でよい。   In each of the above embodiments, the optical center of each of the imaging units 3 and 4 is shown as a predetermined position. However, the predetermined position is not limited to this, and may be an arbitrary position in each of the correction limit regions 92R and 92L.

上記各実施形態では、復帰開始直後及び復帰完了直前の移動量を小さくした3次関数曲線となるように各制御データを算出するようにしたが、これに限ることなく、図11に示すように、直線でもよい。さらには、図12に示すように、各CCD35、55の光学中心までの距離の長い側が、短い側の距離と同じになるまで、短い側の復帰の開始を遅延させるようにしてもよい。こうすれば、各CCD35、55を同じ速度で移動させることが可能になるので、制御を簡単にすることができる。   In each of the above embodiments, each control data is calculated so as to be a cubic function curve in which the movement amount immediately after the start of the return and immediately before the completion of the return is reduced. However, the present invention is not limited to this, as shown in FIG. A straight line may be used. Furthermore, as shown in FIG. 12, the start of return on the short side may be delayed until the long side to the optical center of each CCD 35, 55 is the same as the short side distance. In this way, the CCDs 35 and 55 can be moved at the same speed, so that the control can be simplified.

上記各実施形態では、液晶ディスプレイ15を表面にレンチキュラレンズが設けられた三次元ディスプレイとし、レンチキュラレンズ方式の立体画像データを生成するようにしたが、これに限ることなく、液晶ディスプレイ15を表面にパララックスバリアが設けられた三次元ディスプレイとし、パララックスバリア方式の立体画像データを生成してもよい。さらには、偏光フィルタメガネを用いて観察する偏光表示方式の立体画像データなどでもよい。   In each of the embodiments described above, the liquid crystal display 15 is a three-dimensional display having a lenticular lens provided on the surface, and lenticular lens type stereoscopic image data is generated. However, the present invention is not limited to this, and the liquid crystal display 15 is provided on the surface. A three-dimensional display provided with a parallax barrier may be used to generate parallax barrier stereoscopic image data. Furthermore, stereoscopic image data of a polarization display system that is observed using polarization filter glasses may be used.

上記各実施形態では、各CCD35、55を補正部としたイメージセンサシフト方式の手振れ補正に本発明を適用した例を示したが、これに限ることなく、専用のレンズを補正部としたレンズシフト方式の手振れ補正に本発明を適用してもよい。また、上記各実施形態では、第1及び第2の2つの撮像部3、4を備えたステレオカメラ2に本発明を適用した例を示したが、本発明は、これに限ることなく、3つ以上の撮像部を有するカメラに適用してもよい。   In each of the above-described embodiments, an example in which the present invention is applied to image sensor shift type camera shake correction using the CCDs 35 and 55 as correction units has been described. However, the present invention is not limited to this, and lens shift using a dedicated lens as a correction unit. The present invention may be applied to camera shake correction of a method. In each of the above embodiments, an example in which the present invention is applied to the stereo camera 2 including the first and second imaging units 3 and 4 has been described. The present invention may be applied to a camera having two or more imaging units.

2 ステレオカメラ(複眼カメラ)
3 第1撮像部(撮像光学系)
4 第2撮像部(撮像光学系)
35 第1CCD(補正部)
41、61 手振れ検出センサ(手振れ検出手段)
42、62 位置検出センサ(位置検出手段)
43、63 駆動回路(駆動手段)
55 第2CCD(補正部)
70 CPU(制御手段)
82 補正限界判定部(補正限界判定手段)
86 パン・チルト判定部(パン・チルト判定手段)
2 Stereo camera (compound camera)
3 First imaging unit (imaging optical system)
4 Second imaging unit (imaging optical system)
35 1st CCD (correction unit)
41, 61 Camera shake detection sensor (camera shake detection means)
42, 62 Position detection sensor (position detection means)
43, 63 Drive circuit (drive means)
55 2nd CCD (correction unit)
70 CPU (control means)
82 Correction limit determination unit (correction limit determination means)
86 Pan / tilt determination unit (pan / tilt determination means)

Claims (14)

移動により手振れを補正する補正部と、手振れを検出する手振れ検出手段と、前記補正部の位置を検出する位置検出手段と、前記補正部を移動する駆動手段とをそれぞれが有する複数の撮像光学系を備え、撮像光学系ごとに、前記手振れ検出手段と前記位置検出手段との検出結果に基づいて前記駆動手段で前記補正部を移動させることにより、光学式の手振れ補正を行う複眼カメラにおいて、
前記各補正部を予め決められた所定位置に復帰させる際に、前記各位置検出手段の検出結果に基づく前記各補正部の位置から同時に移動を開始させて前記所定位置に同時に移動を完了させるための、位置、速度、加速度が連続した目標軌道をそれぞれの前記補正部について算出し、前記各補正部の移動を同時に開始させるとともに、算出された前記目標軌道にしたがって前記各補正部をそれぞれ移動させるように前記各駆動部を制御する制御手段を備えたことを特徴とする複眼カメラ。
An auxiliary Tadashibu you correct the camera shake by moving the hand-shake detection means for detecting a shake, said position detecting means for detecting the position of the correction portion, a plurality of imaging each having a driving means for moving the correcting unit an optical system for each image pickup optical system, the detection result to the Ri particular good moving said correcting unit by the driving means on the basis of optical and image stabilization between said position detecting means and the vibration detection means In compound eye cameras,
When returning each correction unit to a predetermined position determined in advance, to simultaneously start movement from the position of each correction unit based on the detection result of each position detection means and complete movement to the predetermined position simultaneously The target trajectory in which the position, speed, and acceleration are continuous is calculated for each of the correction units, and the movement of the correction units is started simultaneously, and the correction units are moved according to the calculated target trajectory. compound eye camera, characterized in that it comprises control means for controlling the respective drivers to so that.
前記各位置検出手段の検出結果に基づいて、前記補正部が補正用移動範囲の限界に達したか否かを前記各補正部についてそれぞれ判定する補正限界判定手段を備え、
前記制御手段は、前記各補正部のいずれかが前記限界に達したと前記補正限界判定手段が判定した際に、前記各補正部を前記所定位置に復帰させることを特徴とする請求項1記載の複眼カメラ。
On the basis of the detection results of the position detecting means comprises a compensation limit determining means you determine respectively whether the correction unit reaches the limit of the correcting movement range for each corrector,
2. The control unit according to claim 1, wherein when the correction limit determination unit determines that any one of the correction units has reached the limit, the correction unit returns the correction unit to the predetermined position. Compound eye camera.
前記補正限界判定手段は、前記補正用移動範囲を示す領域データを有し、前記位置検出手段の検出結果と前記域データとに基づいて、前記補正部の位置が前記補正用移動範囲の内側か否かを確認することによって前記補正部が前記限界に達したか否かを判定することを特徴とする請求項2記載の複眼カメラ。 The correction limit determination means, wherein the correction movement range has shown to area data, on the basis of the detection result of the previous SL-position置検detecting means the area data, for position is the correction of the correction portion 3. The compound eye camera according to claim 2, wherein it is determined whether or not the correction unit has reached the limit by checking whether or not it is inside a moving range . 前記制御手段は、電源がONになった時に、前記各補正部を前記所定位置に復帰させることを特徴とする請求項1ないし3のいずれか1項に記載の複眼カメラ。 The compound eye camera according to any one of claims 1 to 3, wherein the control unit returns the correction units to the predetermined position when the power is turned on. 前記各手振れ検出手段の検出結果に基づいてパンニング又はチルティングが行われているか否かを判定するパン・チルト判定手段を備え、
前記制御手段は、パンニング又はチルティングが行われていると前記パン・チルト判定手段が判定した際に、前記各補正部を前記所定位置に復帰させることを特徴とする請求項1ないし4のいずれか1項に記載の複眼カメラ。
Pan / tilt determination means for determining whether panning or tilting is performed based on the detection result of each hand movement detection means,
Wherein, when the panning or tilting is determined as the pan-tilt determination unit is carried out, any of claims 1 to 4, characterized in that to return the respective correction unit to the predetermined position A compound eye camera according to claim 1.
前記パン・チルト判定手段は、前記各手振れ検出手段の検出結果に基づいて、規定値以上の大きさの動きが一定方向に一定時間以上連続で発生した場合に、パンニング又はチルティングが行われていると判定することを特徴とする請求項5記載の複眼カメラ。 The pan / tilt determination means performs panning or tilting based on the detection result of each hand movement detection means when a movement having a magnitude equal to or larger than a specified value occurs continuously in a certain direction for a certain time or more. The compound-eye camera according to claim 5, wherein the compound-eye camera is determined. 前記所定位置、前記撮像光学系の光学中心であることを特徴とする請求項1ないし6のいずれか1項に記載の複眼カメラ。 Wherein the predetermined position is a compound eye camera according to any one of claims 1 to 6, characterized in that said an optical center of the imaging optical system. 移動により手振れを補正する補正部と、手振れを検出する手振れ検出手段と、前記補正部の位置を検出する位置検出手段と、前記補正部を移動させる駆動手段とをそれぞれが有する複数の撮像光学系を備え、撮像光学系ごとに、前記手振れ検出手段と前記位置検出手段の検出結果に基づいて前記駆動手段で前記補正部を移動させることにより、光学式の手振れ補正を行う複眼カメラの制御方法において、
前記各補正部を予め決められた所定位置に復帰させる際に、前記各位置検出手段の検出結果に基づく前記各補正部の位置から同時に移動を開始させて前記所定位置に同時に移動を完了させるための、位置、速度、加速度が連続した目標軌道をそれぞれの前記補正部について算出し、前記駆動手段による前記各補正部の移動を同時に開始させるとともに、算出された前記目標軌道にしたがって前記各補正部をそれぞれ移動させる復帰制御ステップを有することを特徴とする複眼カメラの制御方法。
An auxiliary Tadashibu you correct the camera shake by moving the hand-shake detection means for detecting a shake, a position detecting means for detecting a position of the corrector, the corrector plurality of each of the driving means Before moving has an imaging optical system, each imaging optical system, the detection result to the Ri particular good moving said correcting unit by the driving means on the basis of optical and image stabilization of the camera-shake detecting means and said position detecting means In the control method of the compound eye camera,
When returning each correction unit to a predetermined position determined in advance, to simultaneously start movement from the position of each correction unit based on the detection result of each position detection means and complete movement to the predetermined position simultaneously The target trajectory in which the position, velocity, and acceleration are continuous is calculated for each of the correction units, and the movement of the correction units by the driving unit is started simultaneously, and the correction units are each according to the calculated target trajectory. A control method for a compound eye camera, comprising: a return control step for moving each of the camera.
前記各位置検出手段の検出結果に基づいて、前記補正部が補正用移動範囲の限界に達したか否かを前記各補正部についてそれぞれ判定する補正限界判定ステップを有し、
前記各補正部のいずれかが前記限界に達したと前記補正限界判定ステップで判定された際に、前記復帰制御ステップを実行することを特徴とする請求項記載の複眼カメラの制御方法。
On the basis of the detection results of the position detecting means has a compensation limit determination step you determine respectively whether the correction unit reaches the limit of the correcting movement range for each corrector,
9. The method of controlling a compound eye camera according to claim 8 , wherein the return control step is executed when it is determined in the correction limit determination step that any one of the correction units has reached the limit.
前記補正限界判定ステップは、前記補正用移動範囲を示す領域データを有し、前記位置検出手段の検出結果と前記領域データとに基づいて、前記補正部の位置が前記補正用移動範囲の内側か否かを確認することによって前記補正部が前記限界に達したか否かを判定することを特徴とする請求項9記載の複眼カメラの制御方法。The correction limit determination step includes area data indicating the correction moving range, and based on a detection result of the position detecting unit and the area data, whether the position of the correction unit is inside the correction moving range. The compound eye camera control method according to claim 9, wherein it is determined whether or not the correction unit has reached the limit by confirming whether or not. 電源がONになった時に、前記復帰制御ステップを実行することを特徴とする請求項8ないし10のいずれか1項に記載の複眼カメラの制御方法。 The method for controlling a compound eye camera according to any one of claims 8 to 10 , wherein the return control step is executed when the power is turned on. 前記各手振れ検出手段の検出結果に基づいてパンニング又はチルティングが行われているか否かを判定するパン・チルト判定ステップを有し、
パンニング又はチルティングが行われていると前記パン・チルト判定ステップが判定した際に、前記復帰制御ステップを実行することを特徴とする請求項8ないし11のいずれか1項に記載の複眼カメラの制御方法。
A pan / tilt determination step for determining whether panning or tilting is performed based on a detection result of each hand movement detection means;
The compound eye camera according to any one of claims 8 to 11 , wherein the return control step is executed when the pan / tilt determination step determines that panning or tilting is being performed. Control method.
前記パン・チルト判定ステップは、前記各手振れ検出手段の検出結果に基づいて、規定値以上の大きさの動きが一定方向に一定時間以上連続で発生した場合に、パンニング又はチルティングが行われていると判定することを特徴とする請求項12記載の複眼カメラの制御方法。In the pan / tilt determination step, panning or tilting is performed based on the detection result of each camera shake detection unit when a movement having a magnitude equal to or larger than a predetermined value occurs in a certain direction continuously for a certain time or more. The method of controlling a compound eye camera according to claim 12, wherein it is determined that the 前記所定位置、前記撮像光学系の光学中心であることを特徴とする請求項8ないし13のいずれか1項に記載の複眼カメラの制御方法。 The method of controlling a compound eye camera according to any one of claims 8 to 13 , wherein the predetermined position is an optical center of the imaging optical system.
JP2009162899A 2009-07-09 2009-07-09 Compound eye camera and control method thereof Expired - Fee Related JP5380184B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009162899A JP5380184B2 (en) 2009-07-09 2009-07-09 Compound eye camera and control method thereof
US12/832,725 US8743174B2 (en) 2009-07-09 2010-07-08 Digital camera and method for controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009162899A JP5380184B2 (en) 2009-07-09 2009-07-09 Compound eye camera and control method thereof

Publications (2)

Publication Number Publication Date
JP2011017929A JP2011017929A (en) 2011-01-27
JP5380184B2 true JP5380184B2 (en) 2014-01-08

Family

ID=43427151

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009162899A Expired - Fee Related JP5380184B2 (en) 2009-07-09 2009-07-09 Compound eye camera and control method thereof

Country Status (2)

Country Link
US (1) US8743174B2 (en)
JP (1) JP5380184B2 (en)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5460170B2 (en) * 2009-08-03 2014-04-02 キヤノン株式会社 Imaging apparatus and control method thereof
KR101630307B1 (en) * 2010-05-12 2016-06-14 삼성전자주식회사 A digital photographing apparatus, a method for controlling the same, and a computer-readable storage medium
JP5739624B2 (en) * 2010-07-01 2015-06-24 キヤノン株式会社 Optical apparatus, imaging apparatus, and control method
JP5634173B2 (en) * 2010-08-31 2014-12-03 キヤノン株式会社 Shooting system
JP2012090259A (en) * 2010-09-21 2012-05-10 Panasonic Corp Imaging apparatus
JP5412692B2 (en) 2011-10-04 2014-02-12 株式会社モルフォ Image processing apparatus, image processing method, image processing program, and recording medium
KR101864450B1 (en) * 2011-10-31 2018-06-04 엘지이노텍 주식회사 Camera module and method for compensating image of the same
JP2013123153A (en) * 2011-12-12 2013-06-20 Sony Corp Image processing apparatus, control method therefor, and program
KR101821141B1 (en) * 2012-02-09 2018-01-23 삼성전자주식회사 3d imaging system and imaging display method for the same
JP2014107669A (en) 2012-11-27 2014-06-09 Canon Inc Stereoscopic imaging lens system and photography system having the same
US9584727B2 (en) * 2013-05-17 2017-02-28 Ricoh Imaging Company, Ltd. Photographing apparatus and photographing control system
JP6690637B2 (en) * 2015-03-31 2020-04-28 ソニー株式会社 Medical observation device, information processing method, program, and video microscope device
JP1571316S (en) 2016-05-17 2017-03-13
JP1571919S (en) * 2016-05-17 2017-03-21
JP6470478B2 (en) * 2016-09-14 2019-02-13 富士フイルム株式会社 Imaging apparatus and imaging control method
JP7019337B2 (en) * 2017-08-02 2022-02-15 キヤノン株式会社 Image stabilization device, lens device and their control method
USD861510S1 (en) * 2017-12-21 2019-10-01 Shenzhen Ruierxing Electronic Co., Ltd. Digital laser rangefinder
USD874535S1 (en) * 2018-01-03 2020-02-04 Hanwha Techwin Co., Ltd. Surveillance camera
JP2020150383A (en) * 2019-03-13 2020-09-17 ソニーセミコンダクタソリューションズ株式会社 Camera, control method, and program

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3269291A (en) * 1961-06-29 1966-08-30 Globe Ind Inc Stereoscopic camera
US5672862A (en) * 1993-07-30 1997-09-30 Canon Kabushiki Kaisha Optical apparatus having image shake preventing function
JP3683929B2 (en) * 1995-03-02 2005-08-17 キヤノン株式会社 Blur correction device and optical device
JP3424063B2 (en) 1997-12-19 2003-07-07 松下電器産業株式会社 Image motion compensation device
US20040201707A1 (en) * 1998-03-12 2004-10-14 Kazuhiro Noguchi Variable magnification lens having image stabilizing function
JP3897993B2 (en) 2001-05-30 2007-03-28 松下電器産業株式会社 Imaging apparatus, image correction method, program, and recording medium
JP2003092768A (en) 2001-09-18 2003-03-28 Canon Inc Imaging apparatus
US7400825B2 (en) * 2003-10-20 2008-07-15 Matsushita Electric Industrial Co., Ltd. Imaging device and method of controlling the same
JP2006074652A (en) * 2004-09-06 2006-03-16 Konica Minolta Photo Imaging Inc Imaging apparatus
US7586534B2 (en) * 2005-03-22 2009-09-08 Fujifilm Corporation Multi-eye image pickup device, adjusting method and device therefor, and image-area adjusting system and method
JP4714176B2 (en) * 2007-03-29 2011-06-29 富士フイルム株式会社 Stereoscopic apparatus and optical axis adjustment method
JP5155625B2 (en) * 2007-08-29 2013-03-06 富士フイルム株式会社 Image stabilizer for camera

Also Published As

Publication number Publication date
US8743174B2 (en) 2014-06-03
JP2011017929A (en) 2011-01-27
US20110007133A1 (en) 2011-01-13

Similar Documents

Publication Publication Date Title
JP5380184B2 (en) Compound eye camera and control method thereof
JP4897940B2 (en) Stereo imaging device
JP4875225B2 (en) Stereo imaging device
JP4914420B2 (en) Imaging device, compound eye imaging device, and imaging control method
JP5595499B2 (en) Monocular stereoscopic imaging device
JP4626684B2 (en) Compound eye imaging apparatus and image blur correction method
US7889237B2 (en) Digital camera
US8878907B2 (en) Monocular stereoscopic imaging device
JP5371845B2 (en) Imaging apparatus, display control method thereof, and three-dimensional information acquisition apparatus
JP2007295547A (en) Digital camera
JP2009303196A (en) Photographic device and program
US8743181B2 (en) Image pickup apparatus
JP2011259168A (en) Stereoscopic panoramic image capturing device
US8976232B2 (en) Device and method for adjusting parallax, imaging apparatus, and image reproduction device
JP2006162991A (en) Stereoscopic image photographing apparatus
JP5087519B2 (en) Imaging device
JP2012090259A (en) Imaging apparatus
JP5832353B2 (en) Imaging device
JP2010237582A (en) Three-dimensional imaging apparatus and three-dimensional imaging method
JP2005070077A (en) Digital camera
JP5366693B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM
US20120188343A1 (en) Imaging apparatus
JP6700693B2 (en) Imaging device, control method thereof, program, and storage medium
JP2011135374A (en) Three-dimensional digital camera
JP2009171324A (en) Photographing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130501

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130904

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130930

R150 Certificate of patent or registration of utility model

Ref document number: 5380184

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees