JPH04349440A - Blurring detecting device for camera - Google Patents
Blurring detecting device for cameraInfo
- Publication number
- JPH04349440A JPH04349440A JP3121315A JP12131591A JPH04349440A JP H04349440 A JPH04349440 A JP H04349440A JP 3121315 A JP3121315 A JP 3121315A JP 12131591 A JP12131591 A JP 12131591A JP H04349440 A JPH04349440 A JP H04349440A
- Authority
- JP
- Japan
- Prior art keywords
- blur
- island
- main
- data
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 claims description 122
- 238000004091 panning Methods 0.000 claims description 26
- 238000005259 measurement Methods 0.000 description 40
- 230000010354 integration Effects 0.000 description 28
- 238000000034 method Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 18
- 238000012935 Averaging Methods 0.000 description 8
- 238000005375 photometry Methods 0.000 description 8
- 238000010187 selection method Methods 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000007423 decrease Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 101000582320 Homo sapiens Neurogenic differentiation factor 6 Proteins 0.000 description 1
- 102100030589 Neurogenic differentiation factor 6 Human genes 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
Landscapes
- Measurement Of Optical Distance (AREA)
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
Abstract
Description
【0001】0001
【産業上の利用分野】本発明は、カメラのぶれ検出装置
に関するものであり、特にカメラの焦点検出装置が有す
る撮像素子を利用したぶれ検出装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a camera shake detection device, and more particularly to a camera shake detection device that utilizes an image sensor included in a camera focus detection device.
【0002】0002
【従来の技術】従来から、特開昭60−166910号
などに示されるような自動焦点検出装置(以下AF装置
)を利用してぶれ検出を行なうカメラが提案されている
。これらのカメラは、AF装置が有する撮像素子を用い
てぶれ検出を行なうもので、ある時間における撮像デー
タと、所定時間経過後の撮像データから被写体の相対的
な移動量を求めるものである。2. Description of the Related Art Conventionally, cameras have been proposed that detect camera shake using an automatic focus detection device (hereinafter referred to as an AF device), as disclosed in Japanese Patent Application Laid-open No. 166910/1983. These cameras perform blur detection using an image sensor included in the AF device, and determine the relative movement amount of a subject from image data at a certain time and image data after a predetermined period of time.
【0003】一方、近年撮影画面内の複数点の被写体距
離を測定できる多点測距可能なカメラが提案されている
。これはAF装置を複数用いて測距を行ない、その測距
データから撮影画面のどの位置に主被写体が存在するか
を判断し、その主被写体に対してピントをあわせるよう
にしたものである。さらに撮影者自身が、主被写体の位
置に応じてどの位置において焦点検出するかを自由に選
択できるカメラもある。この多点測距により、従来のA
Fカメラのように主被写体を中心に配置する必要がなく
なり、自由な構図をとることが可能となった。On the other hand, in recent years, cameras capable of multi-point distance measurement have been proposed, which can measure object distances at a plurality of points within a photographic screen. This uses a plurality of AF devices to measure the distance, determines the position of the main subject on the photographic screen based on the measured distance data, and then focuses on the main subject. Furthermore, some cameras allow the photographer to freely select the position at which focus detection is to be performed depending on the position of the main subject. This multi-point distance measurement makes it possible to
Unlike the F camera, it is no longer necessary to center the main subject, allowing for free composition.
【0004】さてこのような多点測距可能なカメラに上
述のぶれ検出装置を搭載するにあたっては、複数あるA
F装置のうちどの装置の撮像データを用いてぶれ検出す
るかが問題となってくる。これに対し、従来の多点測距
可能でしかも焦点検出用撮像素子を用いてぶれ検出する
カメラでは、撮影画面中央部の測距を行なうAF装置の
撮像データをもとにぶれ検出を行なっていた。しかしな
がらこのカメラでは主被写体が中央からはずれた位置に
存在する場合、背景のぶれを検出することになる。従っ
てぶれ検出を行なうには主被写体を中央に配置する必要
があり、前述のように多点測距によって自由な構図が可
能となる点をまったく利用できなかった。また撮影者が
自由に焦点検出位置を選択できるカメラでは、主被写体
を中央からはずした位置に設定し、その位置に対して合
焦するよう設定してもぶれ検出は背景のぶれを検出して
しまうという問題点があった。Now, when installing the above-mentioned blur detection device on such a camera capable of multi-point distance measurement, it is necessary to use a plurality of A.
The problem is which of the F devices should use imaging data to detect blur. On the other hand, with conventional cameras that are capable of multi-point distance measurement and use a focus detection image sensor to detect blur, the camera shake is detected based on image data from an AF device that performs distance measurement in the center of the shooting screen. Ta. However, with this camera, if the main subject is located off-center, background blur will be detected. Therefore, in order to detect blur, it is necessary to place the main subject in the center, and as mentioned above, the ability to freely compose a picture through multi-point distance measurement cannot be utilized at all. In addition, with a camera that allows the photographer to freely select the focus detection position, even if the main subject is set to a position off the center and the camera is set to focus on that position, the blur detection will still detect blur in the background. There was a problem with it being put away.
【0005】[0005]
【発明が解決しようとする課題】そこで本発明の目的は
、上述従来例の欠点を除去し、多点測距が可能で焦点検
出用撮像素子を用いてぶれ検出を行なうカメラにおいて
、撮影者がどの位置の撮像素子を用いてぶれ検出を行な
うかを自由に選択できるカメラを提供することにある。SUMMARY OF THE INVENTION It is therefore an object of the present invention to eliminate the drawbacks of the above-mentioned conventional examples, and to provide a camera that is capable of multi-point distance measurement and that performs blur detection using a focus detection image sensor. An object of the present invention is to provide a camera in which it is possible to freely select which position of an image sensor to use for blur detection.
【0006】[0006]
【課題を解決するための手段】このような目的を達成す
るために本発明のぶれ検出装置は、複数の焦点検出用撮
像素子を備え、そのいずれかの撮像素子を用いてカメラ
と被写体の相対的なぶれを演算するカメラにおいて、撮
影者自身がどの撮像素子を用いてぶれ検出を行なうかを
手動選択し、その選択された素子の撮像データに基づい
てぶれデータを演算することを特徴とする。[Means for Solving the Problems] In order to achieve the above object, the blur detection device of the present invention includes a plurality of focus detection image sensors, and uses any one of the image sensors to detect the relative relationship between the camera and the subject. In a camera that calculates blur, the photographer manually selects which imaging device to use for blur detection, and calculates blur data based on the imaging data of the selected device. .
【0007】[0007]
【作用】本発明のぶれ検出装置は、多点測距が可能で焦
点検出用撮像素子を用いてぶれ検出を行なうカメラにお
いて、撮影者が複数の撮像素子のうちどの素子を用いて
ぶれ検出を行なうかを自由に選択できる。従って、撮影
者が所望する自由な構図を設定することが可能となる。[Operation] The blur detection device of the present invention allows a photographer to select which of the plurality of image sensors should be used to detect blur in a camera that is capable of multi-point distance measurement and uses a focus detection image sensor to detect blur. You can freely choose what to do. Therefore, it becomes possible for the photographer to freely set the desired composition.
【0008】[0008]
【実施例】以下本発明の実施例を図面を参照しながら説
明する。まず本発明に使用される焦点検出装置について
説明する。図1はいわゆるTTL(Through T
he Lens)位相差検出方式によるカメラの測距原
理を示したものである。図において撮影レンズ1を通過
した入射光はフィルム等価面2で結像し、コンデンサレ
ンズ3を経由して絞りマスク4により2つの光束に分割
される。分割された光束はセパレーターレンズ5によっ
て撮像素子6上に設定された基準領域と参照領域の2つ
の領域に結像する。
そしてこの撮像素子6上に結像した2つの像の間隔に基
づいてデフォーカス量を検出する。すなわち撮像素子6
の基準領域と参照領域とに現れた像間隔の、所定間隔に
対する大小によってピント状態すなわち前ピンまたは後
ピンの状態が判別される。DESCRIPTION OF THE PREFERRED EMBODIMENTS Examples of the present invention will be described below with reference to the drawings. First, a focus detection device used in the present invention will be explained. Figure 1 shows the so-called TTL (Through T
This figure shows the principle of distance measurement of a camera using a phase difference detection method (he Lens). In the figure, incident light that has passed through a photographic lens 1 forms an image on a film equivalent surface 2, passes through a condenser lens 3, and is split into two light beams by an aperture mask 4. The divided light flux is imaged by the separator lens 5 into two areas, a standard area and a reference area, set on the image sensor 6. Then, the amount of defocus is detected based on the interval between the two images formed on the image sensor 6. That is, the image sensor 6
The focus state, that is, the front focus or rear focus state, is determined based on the magnitude of the image interval appearing in the reference area and the reference area with respect to a predetermined interval.
【0009】図2(a)は本発明を適用した多点測距可
能なカメラの視野ファインダにおける測距範囲を示す図
である。本実施例では4つの測距ゾーンを持ち、図1に
示したのような焦点検出装置を4つ用いてそれぞれの測
距ゾーンに対応する点の被写体距離データを求める。本
発明のカメラはこれら4つの測距データや撮影レンズの
焦点距離などから撮影倍率を求め、そこから被写体の大
きさなどを考慮して、いずれのゾーンに主被写体がある
かを自動的に判断し、そのゾーンにたいして合焦するよ
う撮影レンズを駆動する。FIG. 2(a) is a diagram showing the distance measurement range in the field finder of a camera capable of multi-point distance measurement to which the present invention is applied. This embodiment has four distance measurement zones, and uses four focus detection devices as shown in FIG. 1 to obtain subject distance data at points corresponding to each distance measurement zone. The camera of the present invention calculates the photographing magnification from these four distance measurement data and the focal length of the photographic lens, and then automatically determines in which zone the main subject is located, taking into account the size of the subject, etc. Then, the photographic lens is driven to focus on that zone.
【0010】図2(b)はそれぞれの測距ゾーンに対応
するCCDラインセンサ群であり、図1の撮像素子6の
働きをするものである。ただしこの図に示したのは図1
の撮像素子6の基準領域におけるCCDラインセンサ群
である。さらにこのセンサの近辺には不図示の照度モニ
タが設けられ、CCD積分の積分時間を制御している。
図に示すように4つのCCDラインセンサ群をそれぞれ
第1アイランド〜第4アイランドとし、第1・第3アイ
ランドにおけるラインセンサの配列方向と第2・第4ア
イランドのラインセンサの配列方向とは互いに直交して
いる。本実施例では第1・第3アイランドは40画素、
第2アイランドが88画素、第4アイランドが60画素
のラインセンサで構成されている。自動焦点検出時には
前述のように、これら4つのアイランドのセンサからの
測距データや被写体の大きさなどからどのアイランドが
主被写体を捕らえているかを判断する。その後、主被写
体を捕らえていると判断されたアイランド(以下AF選
出アイランドという)の測距データに基づいてレンズ駆
動量を求める。この様に算出されたレンズ駆動量を用い
て撮影レンズを駆動することにより、主被写体に対して
ピントをあわせるものとする。なお本実施例では測距箇
所を4ヵ所としたが必ずしも4ヵ所である必要はなく、
多点測距が可能であればいくつでも良い。また各アイラ
ンドを構成する画素数についても同様で、特に上に述べ
たような画素数に限られるものではない。FIG. 2(b) shows a CCD line sensor group corresponding to each distance measurement zone, which functions as the image pickup device 6 of FIG. However, this figure shows Figure 1.
This is a group of CCD line sensors in the reference area of the image sensor 6. Furthermore, an illuminance monitor (not shown) is provided near this sensor to control the integration time of CCD integration. As shown in the figure, the four CCD line sensor groups are respectively designated as the first island to the fourth island, and the arrangement direction of the line sensors on the first and third islands and the arrangement direction of the line sensors on the second and fourth islands are mutually different. Orthogonal. In this example, the first and third islands have 40 pixels,
The second island is composed of a line sensor of 88 pixels, and the fourth island is composed of a line sensor of 60 pixels. During automatic focus detection, as described above, it is determined which island captures the main subject based on distance measurement data from the sensors of these four islands and the size of the subject. Thereafter, the lens driving amount is determined based on the distance measurement data of the island determined to capture the main subject (hereinafter referred to as the AF selection island). By driving the photographing lens using the lens drive amount calculated in this way, the main subject is brought into focus. In addition, although the distance measurement points are set to four in this example, it is not necessary that there are four points.
Any number may be used as long as multi-point distance measurement is possible. The same applies to the number of pixels constituting each island, and the number of pixels is not particularly limited to the number described above.
【0011】本発明はこれらの自動焦点検出に用いられ
るCCDラインセンサを用いてぶれ検出を行なうものと
する。なお、水平方向のぶれは第2または第4アイラン
ドのセンサを用いて検出し、垂直方向のぶれは第1また
は第3アイランドのセンサを用いて検出する。[0011] In the present invention, blur detection is performed using a CCD line sensor used for automatic focus detection. Note that horizontal shake is detected using the sensor on the second or fourth island, and vertical shake is detected using the sensor on the first or third island.
【0012】図3は本発明を適用したカメラのブロック
図である。図3においてマイクロコンピューター10(
以下マイコン)はレンズ駆動や露光など一連の撮影シー
ケンスを制御し、また露出演算や測距演算さらにはぶれ
演算など撮影に関する演算も行なう。AFセンサ11は
図2に示した4つのCCDラインセンサ群であり、測距
部12はこのセンサの検出結果に基づいて測距データを
マイコン10に出力する。また本発明はAFセンサの撮
像データを用いてぶれ検出を行なうため、測距部12は
ぶれ検出のための撮像データも出力する。測光部14は
光電変換素子であるSPD13(Silicon Ph
oto Diode)の出力に基づいて被写体輝度の測
定を行ない、その測光データをマイコン10に出力する
。FIG. 3 is a block diagram of a camera to which the present invention is applied. In FIG. 3, the microcomputer 10 (
The microcomputer (hereinafter referred to as a microcomputer) controls a series of shooting sequences such as lens drive and exposure, and also performs calculations related to shooting such as exposure calculations, distance measurement calculations, and blur calculations. The AF sensor 11 is a group of four CCD line sensors shown in FIG. 2, and the distance measuring section 12 outputs distance measurement data to the microcomputer 10 based on the detection results of this sensor. Furthermore, since the present invention performs blur detection using image data of the AF sensor, the distance measuring section 12 also outputs image data for blur detection. The photometry unit 14 is a photoelectric conversion element SPD13 (Silicon Ph
The luminance of the subject is measured based on the output of the diodes, and the photometric data is output to the microcomputer 10.
【0013】レンズ制御部16は撮影レンズ15の駆動
などレンズ動作一般の制御を行ない、また撮影レンズ1
5から(詳しくはレンズROMから)出力される焦点距
離や絞り値などのレンズデータをマイコン10に出力す
る。フォーカルプレーンシャッタのシャッタ幕17は、
先幕及び後幕を含み、シャッタ制御部18によって駆動
される。ぶれデータ出力部19は、マイコン10が演算
したぶれデータを出力するための出力端子である。出力
されたぶれデータは被写体がどれだけぶれているかを表
示するぶれ量表示や、光学系等を用いてそのぶれを補正
するぶれ補正などに用いられる。モード切り換え部20
はポートレートモードや風景モードなど、被写体や撮影
環境により適した制御を行なうためにモード変更を行な
うものである。これはダイヤル式のスイッチで切り換え
ても良いし、またICカードのような外部記憶媒体をセ
ットすることによって切り換えても良く、その形式は特
に問わない。手動アイランド選択部21は、撮影者がぶ
れ検出に用いられるアイランドを自分自身で選択するた
めの入力装置である。この手動アイランド選択部21に
より、マイコンが自動的にアイランド選択を行なうだけ
でなく、撮影者の意志でどのアイランドを用いてぶれ検
出を行なうかを選択することができる。The lens control section 16 controls general lens operations such as driving the photographing lens 15, and also controls the photographing lens 15.
Lens data such as focal length and aperture value outputted from the microcomputer 5 (more specifically, from the lens ROM) are outputted to the microcomputer 10. The shutter curtain 17 of the focal plane shutter is
It includes a leading curtain and a trailing curtain, and is driven by the shutter control section 18. The blur data output unit 19 is an output terminal for outputting blur data calculated by the microcomputer 10. The output blur data is used to display the amount of blur to show how much the subject is blurred, and to correct blur using an optical system or the like. Mode switching section 20
This mode changes modes, such as portrait mode and landscape mode, in order to perform control more suitable for the subject and shooting environment. This may be switched by a dial type switch or by setting an external storage medium such as an IC card, and the format is not particularly limited. The manual island selection unit 21 is an input device that allows the photographer to select an island to be used for blur detection. The manual island selection section 21 not only allows the microcomputer to automatically select an island, but also allows the photographer to select which island to use for blur detection.
【0014】S0はカメラの電源スイッチで、オンされ
ることによりカメラの動作が許可される。S1は不図示
のレリーズボタンの第1ストロークの押下でオンになり
、測光・測距を開始させるスイッチである。S2はレリ
ーズボタンの第2ストローク(第1ストロークより深い
)の押下でオンになり、レリーズ動作を開始させるスイ
ッチである。[0014] S0 is a power switch for the camera, and when turned on, operation of the camera is permitted. S1 is a switch that is turned on by pressing the first stroke of a release button (not shown) and starts photometry and distance measurement. S2 is a switch that is turned on by pressing the second stroke (deeper than the first stroke) of the release button and starts the release operation.
【0015】図4は本発明のぶれ検出装置の、ぶれ検出
シーケンスを表した図である。本発明のぶれ検出はAF
に用いられるCCDを用いるため、図に示すようにぶれ
検出はAF動作の合間合間で行なわれる。この図をさら
に詳しく説明すると、まずカメラのレリーズボタンを半
押しにし、S1がオンされると測距が開始される。この
測距動作によりすべてのアイランドの測距データが求ま
ると、フォーカシング動作に入る前にまずぶれ検出を1
回行なう。この場合4サイクルを1セットとしたぶれ検
出を行なう。なおこのサイクルについては後述する。次
にAF動作を開始する。このAF動作は測距からレンズ
駆動量の演算を経て、撮影レンズを駆動するまでの動作
を表す。このあと”測距・レンズ駆動量演算・レンズ駆
動”というAF動作を繰返し、1回目のぶれ検出開始か
ら0.5秒以上経過するのを待つ。図4では0.5秒間
に2回AF動作を繰返した例を示している。このAF動
作の回数は被写体輝度の左右され、被写体輝度が低いと
CCDの積分時間が長くなり回数が減少する。FIG. 4 is a diagram showing the blur detection sequence of the blur detection device of the present invention. The blur detection of the present invention is based on AF.
Since the camera uses a CCD that is used in the AF system, blur detection is performed between AF operations as shown in the figure. To explain this diagram in more detail, first, the release button of the camera is pressed halfway, and when S1 is turned on, distance measurement is started. When the distance measurement data for all the islands is obtained through this distance measurement operation, the camera shake detection is performed first before starting the focusing operation.
Let's go around. In this case, blur detection is performed using four cycles as one set. Note that this cycle will be described later. Next, AF operation is started. This AF operation represents the operation from distance measurement to calculation of the lens drive amount to driving the photographing lens. After this, the AF operation of "distance measurement, lens drive amount calculation, and lens drive" is repeated, and the camera waits for 0.5 seconds or more to elapse from the start of the first blur detection. FIG. 4 shows an example in which the AF operation is repeated twice in 0.5 seconds. The number of times this AF operation is performed depends on the brightness of the subject; when the brightness of the subject is low, the integration time of the CCD becomes longer and the number of times decreases.
【0016】0.5秒以上経過すると再びぶれ検出動作
に入り、今度は8サイクルを1セットとしたぶれ検出を
行なう。以降AF動作と、8サイクルを1セットとした
ぶれ検出を順々に行なう。ただし前述のようにぶれ検出
から次のぶれ検出までは少なくとも0.5秒以上あけ、
その間はAF動作を繰り返すものとする。なおこの0.
5秒待つのはぶれ検出の周期を速くするとAFやその他
の動作の妨げとなるためである。すなわちぶれ検出の周
期を速くして回数を増やすと、ぶれ検出に費やす時間が
多くなり、その分他の動作が遅れてしまうためである。
このシーケンスはレリーズボタンがさらに押されて(S
2オン)、レリーズ動作に入るまでつづけられる。When 0.5 seconds or more have elapsed, the shake detection operation is started again, and this time, shake detection is performed with one set of 8 cycles. Thereafter, the AF operation and the blur detection, each set of 8 cycles, are performed in sequence. However, as mentioned above, there is a gap of at least 0.5 seconds between one shake detection and the next shake detection.
During this time, the AF operation is repeated. Note that this 0.
The reason for waiting 5 seconds is that if the blur detection cycle is made faster, it will interfere with AF and other operations. In other words, if the cycle of blur detection is made faster and the number of times is increased, more time will be spent on blur detection, and other operations will be delayed accordingly. This sequence is activated when the release button is further pressed (S
2 on) and continues until the release operation begins.
【0017】図5はS1オンからレリーズまでのカメラ
の動作順序をフローチャートにしたものである。#2で
S1がオンされると#4で測距・測光が行なわれる。#
6では測距に用いられる被写体像がローコントラスト(
以下ローコン)がどうかを判定する。被写体像のコント
ラストが低ければ測距不能であるのでローコンスキャン
を行なう。このローコンスキャンとは、被写体像にコン
トラストがないのは大きくピントがずれている場合が多
く、撮影レンズをフォーカシング駆動することによりコ
ントラストを見つけるものである。コントラストが見つ
かるとレンズを停止し、再び測距する。#6でローコン
でなければ#8で合焦しているかを判定する。合焦して
いれば静動判定に入り、合焦していなければ#10に進
む。なお静動判定については後述する。#10でS2の
判別を行ない、オフであれば#12で4サイクルのぶれ
検出を行なう。ぶれ検出後#14でレンズ駆動を行なう
。S2オンであればぶれ検出を行なわずにレンズを駆動
する。#16で再び測距・測光を行ない同様にローコン
かどうか判定する。ローコンであれば再び測距を行なう
。なおここではローコンスキャンは行なわない。#20
で合焦を判定し合焦していれば静動判定へ進み、合焦し
ていなければレンズ駆動を行なう。FIG. 5 is a flowchart showing the sequence of camera operations from S1 on to release. When S1 is turned on in #2, distance measurement and photometry are performed in #4. #
6, the subject image used for distance measurement is low contrast (
(hereinafter referred to as low contrast). If the contrast of the subject image is low, distance measurement is impossible, so a low contrast scan is performed. This low-contrast scan is a method in which a lack of contrast in a subject image is often due to a large out-of-focus condition, and the contrast is found by driving the photographic lens for focusing. When the contrast is found, the lens is stopped and the distance is measured again. If the focus is not low in #6, it is determined in #8 whether the focus is on. If it is in focus, it enters static motion determination, and if it is not in focus, it proceeds to #10. Note that the static motion determination will be described later. S2 is determined in #10, and if it is off, four cycles of blur detection are performed in #12. After detecting blur, the lens is driven in #14. If S2 is on, the lens is driven without performing blur detection. In #16, distance measurement and photometry are performed again, and it is similarly determined whether or not the contrast is low. If the contrast is low, measure the distance again. Note that low contrast scanning is not performed here. #20
In-focus is determined, and if it is in focus, the process proceeds to static/motion determination, and if it is not in focus, the lens is driven.
【0018】次に図6を参照に静動判定以降の動作順序
について説明する。#30でS2がオンであれば即レリ
ーズ動作に入る。S2がオフであれば#32で被写体が
静体か動体かを判定する。この場合の動体とは被写体が
カメラの光軸方向に移動しているものを意味する。Next, referring to FIG. 6, the sequence of operations after the static motion determination will be explained. If S2 is on in #30, the release operation immediately begins. If S2 is off, it is determined in #32 whether the subject is a still object or a moving object. A moving object in this case means an object moving in the optical axis direction of the camera.
【0019】被写体が静体である場合、それ以上フォー
カシングは行なわない(AFロック)。#36で測距・
測光を行ない、#38でローコン判定を行なう。#40
でS2を判別し、オンであればレリーズ動作に入る。オ
フであれば#42で前回のぶれ検出から0.5秒以上経
過しているかを判断する。0.5秒以上経過していれば
#44で8サイクルのぶれ検出に入り、経過していなけ
れば再び測距・測光(#36)を行なう。これ以降S2
がオンされるまでこの動作を繰り返す。If the subject is a still body, no more focusing is performed (AF lock). Distance measurement with #36
Perform photometry and perform low contrast judgment in #38. #40
S2 is determined, and if it is on, the release operation begins. If it is off, it is determined in #42 whether 0.5 seconds or more has elapsed since the previous shake detection. If 0.5 seconds or more has elapsed, 8 cycles of blur detection are started in #44, and if not, distance measurement and photometry are performed again (#36). From now on S2
Repeat this operation until it is turned on.
【0020】被写体が動体である場合、被写体の移動に
ともないフォーカシングを続ける(コンティニュアス)
。#48で測距・測光を行ない、#50でローコン判定
を行なう。#52で合焦しているかを判定し、合焦して
いれば#54でS2を判別する。合焦していなければレ
ンズ駆動を行ない再び測距・測光する。#54でS2が
オンであればレリーズ動作に入り、オフであればレンズ
駆動を行なう。この#58のレンズ駆動は一旦合焦して
も被写体の移動によって時間が経過するとピントがずれ
てしまうことを補正するためのものである。#60では
その補正のためのレンズ駆動が終了したかを判別し、ま
だレンズ駆動中であれば再び測距・測光に入る。
レンズが停止していたなら、#62で前回のぶれ検出か
ら0.5秒以上経過しているかを判断する。0.5秒以
上経過していれば#64で8サイクルのぶれ検出に入り
、経過していなければ#48に戻る。これ以降S2がオ
ンされるまでこの動作を繰り返す。S2がオンされると
レリーズ動作に入るが、これ以降はぶれ検出は行なわな
いので説明を省略する。[0020] When the subject is a moving object, focusing continues as the subject moves (continuous).
. Distance measurement and photometry are performed in #48, and low contrast determination is performed in #50. It is determined in #52 whether or not the image is in focus, and if it is in focus, S2 is determined in #54. If it is not in focus, drive the lens and measure distance and light again. If S2 is on in #54, a release operation is started, and if it is off, lens driving is performed. This lens drive #58 is for correcting the fact that even if the lens is once in focus, the focus may shift over time due to movement of the subject. In #60, it is determined whether the lens driving for the correction has ended or not, and if the lens is still being driven, distance measurement and photometry are started again. If the lens has stopped, it is determined in #62 whether 0.5 seconds or more has elapsed since the previous shake detection. If 0.5 seconds or more has elapsed, 8 cycles of blur detection begin in #64, and if not, the process returns to #48. From now on, this operation is repeated until S2 is turned on. When S2 is turned on, a release operation begins, but since no blur detection is performed after this point, the explanation will be omitted.
【0021】次に実際のぶれ検出動作について説明する
。本発明のぶれ検出は大きく分けて4つの動作によって
行なわれる。その4つの動作とは「アイランド選択」、
「ブロック選択」、「ぶれ演算」、「平均処理」である
。以下これら4つの動作について順番に説明していく。Next, the actual blur detection operation will be explained. The blur detection according to the present invention is roughly divided into four operations. The four actions are "island selection",
These are "block selection", "blur calculation", and "average processing". These four operations will be explained in order below.
【0022】[1]アイランド選択
アイランド選択とは前述の4つのアイランドの中からぶ
れ検出に用いるのに適切なアイランドを選び出すことで
ある。本発明では水平方向及び垂直方向のぶれ量を検出
するため、4つのアイランドのうち互いに直交する2つ
のアイランドを選択する。その選択方法であるが、1つ
はAF選出アイランドを選び、もう1つはAF選出アイ
ランドと直交し、かつAF選出アイランドとのデフォー
カス量(以下DF)の差が100μm以内のアイランド
を選ぶ。これは本発明が主被写体の相対的なぶれを検出
することを目的とするためで、これを実現するためにま
ず主被写体を捕らえていると判断されたAF選出アイラ
ンドを選択し、次にそのアイランドに直交するアイラン
ドを選ぶようにしたものである。このように1番目に選
ばれた主被写体を捕らえているアイランドを主アイラン
ドといい、2番目に選ばれたそれに直交するアイランド
を副アイランドという。図7の(a)〜(d)はこの選
択方法によって選ばれた2つのアイランドを示す図であ
る。[1] Island Selection Island selection means selecting an island suitable for use in blur detection from among the four islands described above. In the present invention, in order to detect the amount of blur in the horizontal and vertical directions, two of the four islands that are perpendicular to each other are selected. One selection method is to select an AF selection island, and the other is to select an island that is perpendicular to the AF selection island and has a difference in defocus amount (hereinafter referred to as DF) from the AF selection island within 100 μm. This is because the purpose of the present invention is to detect the relative blur of the main subject. To achieve this, first select the AF selection island that is determined to capture the main subject, and then This is to select an island that is perpendicular to the island. The island that captures the first selected main subject is called the main island, and the second island that is orthogonal to it is called the secondary island. FIGS. 7A to 7D are diagrams showing two islands selected by this selection method.
【0023】なおAF選出アイランドと直交するアイラ
ンドに、前記条件を満たすアイランドが存在しない(D
Fの差が100μmより大、低輝度によりDF検出不能
など)場合はAF選出アイランドを主アイランドとし、
副アイランドは選択しない。そして主アイランドのみで
ぶれを検出する。これを示すのが図7(e)、(f)で
ある。(e)は第4アイランドがAF選出アイランドで
、それに直交する第1、第3アイランドはいずれも背景
を捕らえているために前記条件を満たさない。従ってこ
の場合は第4アイランドのみでぶれ検出を行なう。
(f)は第3アイランドがAF選出アイランドで、この
場合も同様に第3アイランドに直交する第2、第4アイ
ランドはいずれも前記条件を満たさず、ぶれ検出は第3
アイランドのみで行なう。Note that there is no island that satisfies the above condition among the islands perpendicular to the AF selection island (D
If the difference in F is greater than 100 μm, DF cannot be detected due to low brightness, etc.), the AF selection island is the main island,
No secondary islands are selected. Then, blurring is detected only on the main island. This is shown in FIGS. 7(e) and 7(f). In (e), the fourth island is the AF selection island, and the first and third islands perpendicular to it both capture the background, so they do not satisfy the above condition. Therefore, in this case, blur detection is performed only on the fourth island. In (f), the third island is the AF selection island, and in this case as well, neither the second nor fourth islands that are perpendicular to the third island satisfy the above conditions, and the blur detection is performed by the third island.
Perform only on islands.
【0024】以上が本発明におけるアイランドの選択方
法である。ただし今述べたものは基本的な選択方法であ
り、以下のような例外を持っている。The above is the island selection method according to the present invention. However, the method just described is a basic selection method, with the following exceptions.
【0025】撮影者がフォーカスエイド(以下FA)を
使ってマニュアル撮影を行なう場合には、第2アイラン
ドを主アイランドとし、副アイランドは選択しない。そ
してぶれ検出は主アイランド(第2アイランド)のみで
行なう。この選択方法について説明すると、FA撮影の
場合レンズ繰り出しを手動で行なうため、レンズ位置の
データが得られず距離データが算出できない。このため
主被写体が撮影画面内のどの位置にあるかを決定できな
くなる。従って主被写体が存在する確立が最も高い中央
のアイランド、すなわち第2アイランドによってぶれ検
出を行なうのである。[0025] When a photographer uses a focus aid (hereinafter referred to as FA) to perform manual photography, the second island is set as the main island, and no sub-island is selected. Then, blur detection is performed only on the main island (second island). To explain this selection method, in the case of FA photography, since the lens is extended manually, data on the lens position cannot be obtained and distance data cannot be calculated. This makes it impossible to determine where the main subject is located within the photographic screen. Therefore, blur detection is performed using the central island where the probability of the main subject being present is highest, that is, the second island.
【0026】また多点測距が可能で、しかもピントをあ
わせるアイランドを撮影者が任意に選べる(ローカルA
F機能)カメラにおいては、その撮影者が選んだアイラ
ンドを主アイランドとし、このアイランドを用いてぶれ
検出を行なうものとする。これは普通撮影者が選んだア
イランド内に主被写体が存在すると考えられるからであ
る。なおこのローカルAF機能を用いる場合、撮影者は
図3の手動アイランド選択部21によってアイランド選
択を行なう。In addition, multi-point distance measurement is possible, and the photographer can arbitrarily select an island to focus on (local A).
F function) In the camera, the island selected by the photographer is the main island, and this island is used to perform blur detection. This is because it is thought that the main subject usually exists within the island selected by the photographer. Note that when using this local AF function, the photographer selects an island using the manual island selection section 21 shown in FIG.
【0027】図8は以上説明したようなアイランド選択
の動作順序をフローチャートにしたものである。この図
を参照にアイランド選択の動作順序を説明する。ただし
このフローチャートでは一般的なアイランド選択を示し
ているので、横方向のアイランドがH1からHlまでの
l個存在し、縦方向のアイランドがV1からVmまでの
m個存在するものとする。なおこの指数(1〜l、1〜
m)は主アイランドが選択された時点で、主アイランド
からの距離が近いものから順にナンバリングされる。FIG. 8 is a flowchart showing the operation sequence for island selection as described above. The operation order of island selection will be explained with reference to this figure. However, since this flowchart shows general island selection, it is assumed that there are l horizontal islands from H1 to H1 and m vertical islands from V1 to Vm. Note that this index (1~l, 1~
m) are numbered in order of distance from the main island when the main island is selected.
【0028】#100においてAF選出アイランドを主
アイランドにセットする。#102でそのセットされた
主アイランドが縦方向のアイランドか横方向のものかを
判別する。主アイランドが縦方向であった場合、横方向
アイランドの中から副アイランドを選択すべく、#10
4でkを1にセットした後#106でアイランドHkの
デフォーカス量が既に検出されているかを判別する。一
般撮影の場合すべてのアイランドのDFが検出されるた
めYESとなり#108に進む。この判別でNOとなる
場合は上述したような、FAモードやローカルAFモー
ドでアイランドを一つしか用いない場合など特別なとき
のみである。#106でYESであった場合#108で
HkのDFが信頼性のあるものかどうかを判別する。被
写体が低輝度である場合などは信頼性なしとしてNOと
なる。#110で主アイランドのDF(DF0)とHk
のDF(DFHk)の差が所定値以下かどうかを判別す
る。本実施例ではこの所定値は100μmとする。DF
の差が所定値以下であれば#128でそのアイランドH
kを副アイランドにセットして、アイランド選択を終了
する。#106から#110までのいずれかでNOであ
った場合#112でkを1増やし#114を経由して次
のアイランドについてまた同様の判別を行なう。l個あ
る横方向のアイランドのすべてが#106から#110
までの条件を満たさなかった場合、#114でYESと
なり#130で副アイランドはなしとされる。In #100, the AF selection island is set to the main island. In #102, it is determined whether the set main island is a vertical island or a horizontal island. If the main island is vertical, select #10 to select the secondary island from the horizontal islands.
After setting k to 1 in Step 4, it is determined in Step #106 whether the defocus amount of the island Hk has already been detected. In the case of general photography, since the DFs of all islands are detected, the answer is YES and the process proceeds to #108. This determination is NO only in special cases, such as when only one island is used in the FA mode or local AF mode, as described above. If YES in #106, it is determined in #108 whether the Hk DF is reliable. If the subject is of low brightness, the answer is NO as there is no reliability. Main island DF (DF0) and Hk at #110
It is determined whether the difference between DF (DFHk) is less than or equal to a predetermined value. In this embodiment, this predetermined value is 100 μm. DF
If the difference is less than a predetermined value, the island H is
Set k as the secondary island and complete island selection. If the answer is NO in any of steps #106 to #110, k is incremented by 1 in #112, and the same determination is made for the next island via #114. All l horizontal islands are #106 to #110
If the above conditions are not satisfied, the answer is YES in #114, and the sub-island is determined to be absent in #130.
【0029】主アイランドが横方向であった場合、#1
16から#126の判別によって縦方向アイランドの中
から副アイランドが選択される。この動作については主
アイランドが縦方向であった場合とまったく同様である
ので説明を省略する。以上のようにして、縦方向及び横
方向のアイランドからそれぞれ1つずつぶれ検出に用い
られるアイランドが選択される。#1 if the main island is horizontal
A sub-island is selected from among the vertical islands by the determinations from #16 to #126. This operation is exactly the same as when the main island is in the vertical direction, so the explanation will be omitted. As described above, one island is selected from each of the vertical and horizontal islands to be used for blur detection.
【0030】以上説明したのがアイランド選択である。What has been explained above is island selection.
【0031】[2]ブロック選択(基準部・参照部の選
択含む)
ブロック選択とは[1]で説明したような方法で選択さ
れたアイランドを構成する画素より、複数画素分(本実
施例では16画素分)を検出ブロックとして選択するこ
とである。主アイランドにおいて選択されたブロックを
主ブロックといい、副アイランドにおいて選択されたブ
ロックを副ブロックという。この選択されたブロックは
基準部とされ、その画素データはぶれ演算に用いられる
。[2] Block selection (including selection of standard part and reference part) Block selection is to select a plurality of pixels (in this example, 16 pixels) as a detection block. A block selected on a main island is called a main block, and a block selected on a sub island is called a sub block. This selected block is used as a reference portion, and its pixel data is used for blur calculation.
【0032】図9を参照しながらこのブロック選択につ
いて説明する。なおこのブロック選択以降では水平方向
も垂直方向もまったく同様の動作を行なうので、これ以
降は水平方向のぶれ検出について説明を行なう。図9で
は簡単のため、選択されたアイランドの全画素数を21
画素(No.1〜No.21)とし、このうち5画素分
を検出ブロックとして選択するものとする。この例では
図に示すように第1〜第3までの3つのブロックを有す
る。アイランドの両端部は基準部として選んでも被写体
の移動にともないすぐにエリアから抜けてしまってぶれ
検出ができなくなる恐れがあるので、選択しないものと
する。本実施例ではこれら3つのブロックのうち最近の
デフォーカスを持つブロックを選択する。ただしそのブ
ロックのコントラストが所定値以下の場合は新たに第1
〜第3ブロックのうち最もコントラストの高いブロック
を選択するものとする。This block selection will be explained with reference to FIG. Note that after this block selection, exactly the same operations are performed in both the horizontal and vertical directions, so from this point on, horizontal blur detection will be explained. In Figure 9, for simplicity, the total number of pixels of the selected island is 21.
It is assumed that pixels (No. 1 to No. 21) are selected, and five pixels among them are selected as a detection block. In this example, there are three blocks, first to third, as shown in the figure. Even if both ends of the island are selected as reference parts, they may quickly leave the area as the subject moves, making blur detection impossible, so they should not be selected. In this embodiment, the block with the most recent defocus is selected from among these three blocks. However, if the contrast of that block is less than the predetermined value, a new first
~The block with the highest contrast among the third blocks shall be selected.
【0033】今、S1オン後1回目のCCDの積分が終
了したときの画素データを図9(a)のようにそれぞれ
a1〜a21とする。このa1〜a21の画素データは
ダンプされメモリに記憶される。ダンプ終了後再びCC
Dの積分動作に入り、この積分動作と並行してブロック
選択が行なわれる。もし仮に第2ブロック(No.9〜
No.13)が最近のデフォーカスを持っていたならば
、この画素データ(a9〜a13)を基準データとして
メモリしておく。Now, the pixel data when the first CCD integration is completed after S1 is turned on are assumed to be a1 to a21, respectively, as shown in FIG. 9(a). This pixel data of a1 to a21 is dumped and stored in memory. CC again after dumping
An integration operation of D is started, and block selection is performed in parallel with this integration operation. If the second block (No. 9~
No. 13) has recent defocus, this pixel data (a9 to a13) is stored in memory as reference data.
【0034】次に2回目の積分が終了したときの画素デ
ータを図9(b)のようにそれぞれb1〜b21とする
。これらのデータも同様にダンプされ、ダンプ終了後再
び積分を開始する。先に記憶した基準部から左右に4画
素分広げた領域(No.5〜No.17)を参照部とし
、この画素データ(b5〜b17)を参照データとする
。その後基準データと参照データの間で相関演算・補間
演算を行ない、被写体の動きを算出する。この演算につ
いては後にぶれ演算の項で詳しく説明する。演算の結果
、例えば被写体が左に3画素分移動していたとすると、
次の基準部は前の基準部(No.9〜No.13)より
も左に3画素ずらし、No.6〜No.10とする。基
準部が決まるとその画素データ(b6〜b10)を次の
基準データとしてメモリする。Next, when the second integration is completed, the pixel data are designated as b1 to b21, respectively, as shown in FIG. 9(b). These data are also dumped in the same way, and after the dump is completed, integration is started again. An area (No. 5 to No. 17) expanded by four pixels left and right from the previously stored reference portion is used as a reference portion, and this pixel data (b5 to b17) is used as reference data. Thereafter, correlation calculations and interpolation calculations are performed between the standard data and reference data to calculate the movement of the subject. This operation will be explained in detail later in the blurring operation section. As a result of the calculation, for example, if the subject has moved 3 pixels to the left,
The next reference section is shifted 3 pixels to the left from the previous reference section (No. 9 to No. 13), and No. 6~No. Set it to 10. Once the reference portion is determined, the pixel data (b6 to b10) is stored as the next reference data.
【0035】さらに3回目の積分が終了したときの画素
データを図9(c)のようにそれぞれc1〜c21とす
る。前述と同様に、基準部(No.6〜No.10)か
ら左右に4画素分広げた領域(No.2〜No.14)
を参照部とし、基準データb6〜b10と参照データc
2〜c14の間でぶれ演算を行なう。Furthermore, the pixel data when the third integration is completed are respectively designated as c1 to c21 as shown in FIG. 9(c). Similarly to the above, the area (No. 2 to No. 14) is expanded by 4 pixels to the left and right from the reference part (No. 6 to No. 10).
is the reference part, standard data b6 to b10 and reference data c
A blur calculation is performed between 2 and c14.
【0036】以上のような基準部・参照部の選択を順々
に繰返してぶれ検出を行なう。なお検出を続けるうちに
基準部のコントラストが低下し、所定値以下となったと
きは前述の第1〜第3までのブロックのうち最も高コン
トラストのものを新たに基準部として選びなおす。また
基準部が図10に示すように端に来てしまい、参照部が
設定不可となったときも同様に最も高コントラストなブ
ロックを新たに選びなおす。しかしながら最も高コント
ラストなブロックでさえ、そのコントラストが所定値以
下であれば、基準部は「なし」となり次回のぶれ演算は
不能となる。[0036] The selection of the reference portion and the reference portion as described above is repeated in order to perform blur detection. If the contrast of the reference portion decreases as detection continues and becomes less than a predetermined value, the one with the highest contrast among the first to third blocks described above is selected as a new reference portion. Furthermore, when the reference portion reaches the edge as shown in FIG. 10 and the reference portion cannot be set, a new block with the highest contrast is similarly selected. However, even in the block with the highest contrast, if the contrast is less than a predetermined value, the reference portion becomes "none" and the next blur calculation becomes impossible.
【0037】以上がブロック選択(基準部・参照部の選
択)の説明である。The above is an explanation of block selection (selection of reference portion/reference portion).
【0038】[3]ぶれ演算
ぶれ演算は大きく分けて相関演算と補間演算に分けられ
る。まず最初に相関演算について説明する。なおこのぶ
れ演算についても、水平方向を例にとって説明を行なう
ものとする。[3] Blur Calculation Blur calculations can be broadly divided into correlation calculations and interpolation calculations. First, correlation calculation will be explained. Note that this blurring calculation will also be explained using the horizontal direction as an example.
【0039】基準データをs(x)〜s(x+4),参
照データをr(x−4)〜r(x+8)とし、相関値を
以下のように定義する。The standard data is s(x) to s(x+4), the reference data is r(x-4) to r(x+8), and the correlation value is defined as follows.
【0040】[0040]
【数1】[Math 1]
【0041】(1)式においてnは基準データと参照デ
ータが何画素分ずれているかを示し、この相関値H(n
)が最小となるnが被写体の相対的な移動量を表すもの
となる。すなわち例えば被写体がまったく移動せず手ぶ
れもおきていなければH(0)が最小値となり、また右
に2画素分被写体が移動していたならばH(2)が最小
値となる。In equation (1), n indicates how many pixels the standard data and reference data are shifted from each other, and this correlation value H(n
) is the minimum, and n represents the relative movement amount of the subject. That is, for example, if the subject has not moved at all and there is no camera shake, H(0) will be the minimum value, and if the subject has moved two pixels to the right, H(2) will be the minimum value.
【0042】具体例として図9(b)に示した基準デー
タ(a9〜a13)と参照データ(b5〜b17)によ
って相関演算を行なってみる。(1)式によってnが−
4から4までの相関値を求めると以下のようになる。As a specific example, a correlation calculation will be performed using the standard data (a9 to a13) and reference data (b5 to b17) shown in FIG. 9(b). According to equation (1), n is -
The correlation values from 4 to 4 are calculated as follows.
【0043】[0043]
【数2】[Math 2]
【0044】[0044]
【数3】[Math 3]
【0045】::0045::
【0046】[0046]
【数4】[Math 4]
【0047】この例の場合、被写体は左に3画素分移動
しているのでH(−3)が最小値となる。ちなみに被写
体が1画素分移動したときのフィルム面上でのぶれ量は
60μmであるので、この場合フィルム面上では180
μm移動している。In this example, the subject has moved three pixels to the left, so H(-3) is the minimum value. By the way, the amount of blur on the film surface when the subject moves by one pixel is 60 μm, so in this case, the amount of blur on the film surface is 180 μm.
It is moving μm.
【0048】以上説明したのが相関演算である。What has been explained above is the correlation calculation.
【0049】次に補間演算について説明する。図11は
相関演算値の分布を示す一例で、横軸をn、縦軸を相関
値H(n)として各相関データをプロットしたものであ
る。相関演算の結果、最も相関度の高いのはn=1であ
る。しかし、図からも分かるように、実際に最も相関度
の高いnは0と1の間に存在する。この値を求めるのが
補間演算である。Next, interpolation calculation will be explained. FIG. 11 is an example showing the distribution of correlation calculation values, in which each correlation data is plotted with n on the horizontal axis and correlation value H(n) on the vertical axis. As a result of the correlation calculation, n=1 has the highest degree of correlation. However, as can be seen from the figure, n, which actually has the highest correlation, exists between 0 and 1. Interpolation calculation is used to find this value.
【0050】図12はP(n)(n=−4…4)の中の
最小値P(m)とその両側の点P(m−1)、P(m+
1)をプロットしたものである。FIG. 12 shows the minimum value P(m) in P(n) (n=-4...4) and the points P(m-1) and P(m+) on both sides thereof.
1) is plotted.
【0051】まずP(m−1)とP(m+1)のうち大
きい方と、P(m)を通る直線を引く(図12では直線
101で表される)。次に、P(m−1)とP(m+1
)のうち小さい方を通り、直線101の傾きと符号が反
対で絶対値が同じ傾きの直線を引く(図12では直線1
02)。2つの直線101と102の交点のnの値を水
平方向のぶれ画素量Gxとする。ただし図11でP(−
4)またはP(4)が最小値となった場合には上記のよ
うな演算は行なえない。従ってGxの検出範囲は−3.
5から+3.5の間に限られ、これ以上の値はぶれ量が
大きすぎるため検出不能とし、その演算結果を無効とす
る。なおこのぶれ画素量Gxは次の式で計算される。First, draw a straight line passing through P(m) and the larger of P(m-1) and P(m+1) (represented by straight line 101 in FIG. 12). Next, P(m-1) and P(m+1
), and draw a straight line with the opposite sign and the same absolute value as straight line 101 (in Figure 12, straight line 1
02). Let the value of n at the intersection of the two straight lines 101 and 102 be the horizontal blur pixel amount Gx. However, in Figure 11, P(-
4) or P(4) becomes the minimum value, the above calculation cannot be performed. Therefore, the detection range of Gx is -3.
The value is limited to between 5 and +3.5, and values larger than this are considered undetectable because the amount of blur is too large, and the calculation result is invalidated. Note that this amount of blurred pixels Gx is calculated using the following formula.
【0052】[0052]
【数5】[Math 5]
【0053】[0053]
【数6】[Math 6]
【0054】このようにして求めたぶれ画素量Gxは「
左または右に何画素分ぶれたか」を示すものである。
このぶれ画素量Gxにたいし、信頼値としてYM/Cを
定義する。ただしYM及びCは図12で示す値であり、
以下の式で定義される。The amount of blurred pixels Gx obtained in this way is “
This indicates the number of pixels shifted to the left or right. YM/C is defined as a reliability value for this amount of blurred pixels Gx. However, YM and C are the values shown in FIG.
It is defined by the following formula.
【0055】[0055]
【数7】[Math 7]
【0056】[0056]
【数8】[Math. 8]
【0057】このCは直線101の傾きを表しており、
傾きが急なほどすなわちCが大きいほどコントラストが
高いことを示す。また相関値が小さいほど相関度が高く
、従ってYMが小さいほど信頼性が高い。以上のことか
らYM/Cが小さいほど信頼性は高い。本実施例ではY
M/Cが1以上であると信頼性低としてその演算結果を
無効とする。[0057] This C represents the slope of the straight line 101,
The steeper the slope, that is, the larger C, the higher the contrast. Furthermore, the smaller the correlation value, the higher the degree of correlation, and therefore the smaller YM, the higher the reliability. From the above, the smaller YM/C is, the higher the reliability is. In this example, Y
If M/C is 1 or more, the reliability is considered low and the calculation result is invalidated.
【0058】次にこの水平方向のぶれ画素量Gxに基づ
いて、実際にフィルム面上でどのくらいぶれているのか
を演算する。上述のように本実施例のカメラでは、CC
D上で1画素ぶれた時のフィルム面上でのぶれ量は60
μmである。従って水平方向の、フィルム面上での実際
のぶれ量をBxとすると、ぶれ量Bxは次の式で求めら
れる。Next, based on this horizontal direction blurred pixel amount Gx, it is calculated how much blurring actually occurs on the film surface. As mentioned above, in the camera of this embodiment, CC
When one pixel is shaken on D, the amount of shake on the film surface is 60
It is μm. Therefore, assuming that the actual amount of blur in the horizontal direction on the film surface is Bx, the amount of blur Bx is determined by the following equation.
【0059】[0059]
【数9】[Math. 9]
【0060】以上のようにしてぶれ量が求まると次にぶ
れ速度Vxを求める。このぶれ速度Vxは1秒間にフィ
ルム面上でどのくらい被写体が移動したか(水平方向)
を示す値で、以下の式で定義される。After the amount of blur is determined as described above, the velocity of blur Vx is then determined. This blur speed Vx is how much the subject moves on the film surface in 1 second (horizontal direction)
It is defined by the following formula.
【0061】[0061]
【数10】[Math. 10]
【0062】以上説明したようにしてぶれ量及びぶれ速
度の演算が行なわれる。ここまでで水平方向のぶれ量及
びぶれ速度が求まったが、垂直方向についてもまったく
同様の演算で求まるので、垂直方向については説明を省
略する。なお垂直方向のフィルム面上でのぶれ量及びぶ
れ速度をそれぞれBy及びVyと定義する。The amount of blur and the speed of blur are calculated as described above. Up to this point, the amount of blur and the speed of blur in the horizontal direction have been found, but since they can be found in the vertical direction using exactly the same calculations, a description of the vertical direction will be omitted. Note that the amount of blur and the speed of blur on the film surface in the vertical direction are defined as By and Vy, respectively.
【0063】[4]平均処理
[3]で説明したようなぶれ演算によりぶれ速度が求ま
ると次に平均処理を行なう。この平均処理は上記のよう
なぶれ演算を4回または8回行なった後それらのデータ
を加算平均する。このようにして水平方向及び垂直方向
それぞれ1つずつ平均ぶれ速度を求める。ただし無効に
なったぶれ速度(コントラスト低、YM/C大、ぶれ量
大など)は平均に加算しない。また有効なデータが3個
に満たない場合は、その回の平均ぶれ速度を無効とする
。なお4個のぶれ速度から1個の平均ぶれ速度を求める
ぶれ検出を4サイクルで1セットのぶれ検出といい、8
個のぶれ速度から1個の平均ぶれ速度を求めるぶれ検出
を8サイクルで1セットのぶれ検出という。[4] Averaging Process Once the blur velocity is determined by the blurring calculation as described in [3], averaging processing is then performed. In this averaging process, the above-described blur calculation is performed four or eight times, and then the data are added and averaged. In this way, one average blur speed is determined in each of the horizontal and vertical directions. However, blur speeds that have become invalid (low contrast, large YM/C, large amount of blur, etc.) are not added to the average. Furthermore, if the number of valid data is less than three, the average blur speed for that time is invalidated. Note that one set of shake detection is defined as one set of shake detection in four cycles, which calculates one average shake speed from four shake speeds.
8 cycles are called one set of blur detection, in which one average blur speed is calculated from the individual blur speeds.
【0064】表1は具体的なぶれ速度のデータを表した
もので、この表を参照に加算平均について説明する。な
おこの表は8サイクルを1セットとした例である。表中
にぶれ速度が無効となったデータがあるが、これは前に
述べたような「アイランド内のすべてのブロックが低コ
ントラストで基準部がない」場合や、「ぶれ量が大きす
ぎ(3.5画素分より大)てぶれ検出不能である」場合
である。これら無効となったデータは加算平均には加え
ない。また前述のようにYM/Cが1以上の場合は信頼
性が低いとしてこれらも加算平均に加えない。従ってこ
のセットの平均ぶれ速度は、i=3,6,7におけるぶ
れ速度を加算平均して求め、以下の式で表される。Table 1 shows specific data on blur speed, and the averaging will be explained with reference to this table. Note that this table is an example in which one set is 8 cycles. There is data in which the blur speed is invalidated in the table, but this occurs when "all blocks in the island have low contrast and there is no reference part" as mentioned earlier, or when "the amount of blur is too large (3 This is a case where the blur (larger than .5 pixels) cannot be detected. These invalid data are not added to the arithmetic average. Further, as described above, when YM/C is 1 or more, these are also not added to the average because the reliability is low. Therefore, the average blur speed of this set is obtained by averaging the blur speeds at i=3, 6, and 7, and is expressed by the following formula.
【0065】[0065]
【数11】[Math. 11]
【0066】[0066]
【表1】[Table 1]
【0067】以上のようにして平均ぶれ速度が求まると
、次に主アイランドと副アイランドで重み付けを行なう
。この重み付けは、本発明の目的が主被写体のぶれを検
出することにあるので、より正確に主被写体の動きを捕
らえるための演算である。[0067] Once the average blur speed has been determined as described above, weighting is then performed on the main island and the sub-island. This weighting is a calculation for more accurately capturing the movement of the main subject, since the purpose of the present invention is to detect blur of the main subject.
【0068】表2を参照に重み付けについて説明する。Weighting will be explained with reference to Table 2.
【0069】まず主アイランドから求めた平均ぶれ速度
と副アイランドから求めた平均ぶれ速度がともに有効で
あった場合について説明する。この場合以下の式によっ
て最終的に出力となる出力ぶれ速度Boを求める。First, a case will be described in which both the average blur velocity obtained from the main island and the average blur velocity obtained from the sub islands are valid. In this case, the output blur speed Bo, which is the final output, is determined using the following equation.
【0070】[0070]
【数12】[Math. 12]
【0071】[0071]
【数13】[Math. 13]
【0072】これらの式を説明すると、主アイランドの
平均ぶれ速度が副アイランドよりも小さい場合には主ア
イランドのデータをそのまま出力ぶれ速度Boとする。
逆に主アイランドの平均ぶれ速度が副アイランドよりも
大きい場合には2つの速度データを平均したものを出力
ぶれ速度Boとする。すなわち副アイランドよりも主ア
イランド、ぶれ速度が大きいものよりも小さいものに重
きを置いている。これは主被写体と背景では一般に背景
の方がぶれ速度が大きくなることが多いからである。そ
の顕著な例を一つ挙げると、移動する被写体を追いかけ
ながら撮影するいわゆる流し撮りを行なった場合、主被
写体はほぼ停止しているのに対し、背景はものすごいス
ピードで移動していることになる。このようなことから
、主アイランドのぶれ速度が小さければそれをそのまま
Boとし、副アイランドのぶれ速度が小さければ2つの
ぶれ速度の平均をBoとする。To explain these equations, if the average blur velocity of the main island is smaller than that of the sub-island, the data of the main island is directly used as the output blur velocity Bo. Conversely, if the average blur velocity of the main island is larger than that of the sub island, the average of the two velocity data is set as the output blur velocity Bo. In other words, more emphasis is placed on the main island than on the sub-island, and on those with small blurring speeds rather than on those with large blurring speeds. This is because, when comparing the main subject and the background, the blurring speed of the background is generally greater than that of the main subject. To give one notable example, when you take a photo while following a moving subject, the main subject is almost stationary, while the background is moving at a tremendous speed. . For this reason, if the blur speed of the main island is small, it is taken as Bo, and if the blur speed of the sub island is small, the average of the two blur speeds is taken as Bo.
【0073】次に、主アイランドから求めた平均ぶれ速
度は有効であるが、副アイランドから求めたものは無効
となった場合は主アイランドのデータをそのままBoと
する。逆に主アイランドのデータが無効で、副アイラン
ドのデータが有効のときは、副アイランドのデータをB
oとする。また主・副アイランドとも無効の場合は、出
力ぶれ速度Boも無効とする。Next, if the average blur velocity obtained from the main island is valid but the one obtained from the sub island is invalid, the data of the main island is used as is as Bo. Conversely, if the data on the main island is invalid and the data on the secondary island is valid, the data on the secondary island is
o. Furthermore, if both the main island and the sub-island are invalid, the output blur speed Bo is also invalid.
【0074】さらに、アイランド選択において副アイラ
ンドを選択せず、主アイランドのみでぶれ検出を行なっ
た場合、主アイランドのデータが有効であったらそれを
そのままBoとし、逆に無効であったら出力Boも無効
とする。Furthermore, if the sub-island is not selected during island selection and blur detection is performed only on the main island, if the data of the main island is valid, it will be used as Bo, and if it is invalid, the output Bo will also be used. shall be invalidated.
【0075】以上のような重み付けを行なって、最終的
なぶれ速度の出力である出力ぶれ速度Boを算出する。By performing the weighting as described above, the output blur speed Bo, which is the final blur speed output, is calculated.
【0076】[0076]
【表2】[Table 2]
【0077】図13は上の[1]から[4]で説明した
ぶれ検出の動作順序を示すもので、横軸を時間としてい
る。なおこの図は4サイクルを1セットとしたものであ
る。FIG. 13 shows the operational sequence of blur detection explained in [1] to [4] above, and the horizontal axis is time. Note that this figure shows one set of four cycles.
【0078】ぶれ検出動作に入るとまずCCDの積分を
開始する(積分■)と同時に、アイランド選択を行なう
。このアイランド選択については既に[1]で説明済み
である。積分■の終了後選択した2つのアイランドの画
素データをそれぞれ個々にダンプしてメモリに記憶する
。(ダンプ■)ただしCCD積分の積分時間は前に図4
で説明したように被写体輝度に左右され、被写体輝度が
あまりに低輝度であると長時間積分終了を待つことにな
る。このため本実施例ではぶれ検出時における積分の最
長時間は10msとし、それ以上は被写体低輝度のため
次回のぶれ演算は不能とする。When the camera shake detection operation starts, CCD integration is started (integration (2)) and at the same time island selection is performed. This island selection has already been explained in [1]. After the integration (2) is completed, the pixel data of the two selected islands are individually dumped and stored in memory. (Dump■) However, the integration time of CCD integration is as shown in Figure 4.
As explained above, it depends on the brightness of the object, and if the brightness of the object is too low, it will take a long time to complete the integration. For this reason, in this embodiment, the longest integration time when detecting blur is 10 ms, and beyond that, the next blur calculation is impossible because the subject is low in brightness.
【0079】次に再びCCDの積分を開始する(積分■
)と同時に、2つのアイランドにおいてそれぞれブロッ
ク選択を行なう。このブロック選択についても[2]で
説明済みである。積分■が終了すると、同様にそれぞれ
のアイランドの画素データをダンプする。(ダンプ■)
ダンプ■の終了後、積分■を開始すると同時にぶれ演算
■を行なう。このぶれ演算■はブロック選択時に設定さ
れた基準部と、ダンプ■で記憶した画素データの参照部
との間で相関演算・補間演算を行ない、ぶれ量及びぶれ
速度を演算する。なおこの時、求めたぶれ量に応じて次
のぶれ演算のための基準部を設定しておく。Next, start the CCD integration again (integration ■
) At the same time, block selection is performed in each of the two islands. This block selection has also been explained in [2]. When the integration (2) is completed, the pixel data of each island is similarly dumped. (dump■)
After the dump (■) is completed, the integration (2) is started, and at the same time, the shake calculation (2) is performed. This blurring calculation (2) performs a correlation calculation/interpolation calculation between the reference part set at the time of block selection and the reference part of the pixel data stored in the dump (2), and calculates the amount of blurring and the blurring speed. At this time, a reference portion for the next blur calculation is set in accordance with the determined amount of blur.
【0080】積分■終了後同様にその画素データをダン
プし(ダンプ■)、ぶれ演算■を行なう。このぶれ演算
■はぶれ演算■で設定した基準部とダンプ■で記憶した
画素データの参照部との間で相関・補間演算を行ない、
ぶれ量、ぶれ速度を求める。以下同様にCCD積分とぶ
れ演算を繰返し、ぶれ演算■が終了すると平均処理を行
なう。この平均処理は[4]で説明したようにぶれ演算
■から■で求めた4つのぶれ速度を加算平均し、さらに
主アイランドのデータと副アイランドのデータとで重み
付けをするものである。After the integration (2) is completed, the pixel data is similarly dumped (dump (2)), and blurring calculation (3) is performed. Correlation and interpolation calculations are performed between the reference part set in this blur calculation ■ Blur calculation ■ and the reference part of the pixel data stored in dump ■.
Find the amount of shake and the speed of shake. Thereafter, CCD integration and blur calculation are repeated in the same manner, and when blur calculation (2) is completed, averaging processing is performed. As explained in [4], this averaging process adds and averages the four blur velocities obtained in blur calculations ① to ②, and further weights the data of the main island and the data of the sub-islands.
【0081】以上のようなぶれ検出動作を行なうことに
よって最終出力である出力ぶれ速度Boを求めることが
できる。なお8サイクルを1セットとしたぶれ検出にお
いては4サイクルの場合と同様の動作順序でぶれ演算を
■から■まで行ない、8個のぶれ速度のデータを平均処
理する。By performing the blur detection operation as described above, the output blur speed Bo, which is the final output, can be determined. In the case of blur detection using 8 cycles as one set, blur calculations are performed from ■ to ■ in the same operating order as in the case of 4 cycles, and the data of eight blur speeds are averaged.
【0082】図14から図17は1セットのぶれ検出の
動作を示すフローチャートである。これらのフローチャ
ートを参照しながらぶれ検出動作についてより詳しく説
明する。#202においてマイコンはこのぶれ検出が1
回目のものかそれ以降のものかを判断し、jを4または
8にセットする。#204ではCCDの積分を開始する
。CCD積分と並行しながら#206及び#208でア
イランド選択を行なう。#210では条件を満たしたア
イランドが2つ選択されたかを判別し、NOすなわち条
件を満たす副アイランドがなければ#212に進み主ア
イランドのみ決定のフラグをセットする。#210でY
ESならば#213に進み主・副両方のアイランド決定
のフラグをセットする。アイランドを選択した後、CC
D積分が終了すると、#214でその画素データをダン
プし、メモリに記憶しておく。FIGS. 14 to 17 are flowcharts showing one set of blur detection operations. The blur detection operation will be explained in more detail with reference to these flowcharts. In #202, the microcomputer detects this blur as 1.
Determine whether it is the first time or later, and set j to 4 or 8. In #204, CCD integration is started. In parallel with CCD integration, island selection is performed in #206 and #208. In #210, it is determined whether two islands that meet the conditions have been selected. If NO, that is, there are no sub-islands that meet the conditions, the process advances to #212 and sets a flag for determining only the main island. #210 is Y
If it is ES, proceed to #213 and set both the main and sub island determination flags. After selecting an island, CC
When the D-integration is completed, the pixel data is dumped and stored in the memory in #214.
【0083】ダンプ後#216で再びCCD積分を開始
する。積分動作と並行して#218で主ブロックの選択
を行なう。この主ブロックの選択では、主アイランド内
で最近のデフォーカスを持つブロックまたは最大のコン
トラストを持つブロックを選択する。#220では条件
(コントラストが所定値以上である)を満たす主ブロッ
クが選択されたかどうかを判別する。#220でYES
であった場合#224でそのブロックの画素データを基
準画素データとして記憶させ、#226で主基準部決定
のフラグをセットする。逆にアイランド内のすべてのブ
ロックが低コントラストで、条件を満たす主ブロックが
選択されなかったときは#222で主基準部決定のフラ
グをクリアする。After dumping, CCD integration is started again at #216. In parallel with the integration operation, a main block is selected in #218. This main block selection selects the block with the most recent defocus or the maximum contrast within the main island. In #220, it is determined whether a main block that satisfies the condition (contrast is greater than or equal to a predetermined value) has been selected. YES with #220
If so, the pixel data of that block is stored as reference pixel data in #224, and a flag for determining the main reference portion is set in #226. Conversely, if all the blocks within the island have low contrast and no main block satisfying the conditions has been selected, the main reference portion determination flag is cleared in #222.
【0084】次に副ブロックを選択するのであるが、#
228では副アイランドがあるかどうかを判別する。こ
の判別は#213でフラグをセットしたか否かで行なう
。副アイランドがある場合、#230から#238で副
ブロックの選択及びフラグのセットが行なわれる。この
動作については主ブロックと同様であるので説明は省略
する。副アイランドがなかった場合は副ブロックの選択
ができないので、直接#240に進む。#240ではC
CD積分終了後、画素データをダンプする。Next, select the sub-block, #
At step 228, it is determined whether there is a secondary island. This determination is made based on whether a flag is set in #213. If there is a sub-island, the sub-block is selected and the flag is set in steps #230 to #238. This operation is the same as that of the main block, so the explanation will be omitted. If there is no secondary island, it is not possible to select a secondary block, so the process directly proceeds to #240. C in #240
After completing the CD integration, dump the pixel data.
【0085】アイランド選択及びブロック選択終了後、
ぶれ演算動作に入る。図15を参照にぶれ演算の動作順
序について説明する。#250ではiを1にセットする
。このiはぶれ演算の回数を示すものであり、ぶれ演算
を行なうごとに1ずつ増やしていく。#252ではCC
D積分を開始し、#254では主基準部が決定している
か否かフラグをチェックする。主基準部が決定している
なら#256で主アイランドのぶれ演算を行なう。この
ぶれ演算は既に説明したように、基準部と参照部の間で
相関・補間演算を行ない、ぶれ量及びぶれ速度、さらに
YM/Cを求める。#258では求めたぶれ量が検出可
能範囲であるかを判別している。本実施例ではぶれ画素
量Gxが±3.5画素を超えた場合検出不能としてその
データを無効としている。検出範囲内であった場合#2
60でそのぶれ速度をメモリする。なおこの時同時にY
M/Cの値もあわせてメモリしておく。ぶれ速度メモリ
後#262において算出されたぶれ画素量Gxに基づい
て次回の基準部を設定する。#264及び#266では
この設定された基準部のコントラストが所定値以上か、
そして参照部が設定可能な範囲かをチェックしている。
これらのうちいずれかがNOであった場合#268へ進
み主ブロックを選択しなおす。この主ブロック選択は、
主アイランド内でコントラストの最も高いブロックを選
択する。#268での主ブロックの選択は#264,2
66でNOであった場合に限らず、#254で主基準部
が決定されてなかった場合や、#258で演算されたぶ
れ画素量が大きすぎる場合などにも行なわれる。
#270では#268で条件(コントラストが所定値以
上)を満たす主ブロックが選択されたかどうかを判別す
る。条件を満たす主ブロックが選択されていたなら#2
72へ進む。After completing island selection and block selection,
Starts blur calculation operation. The operation order of blur calculation will be explained with reference to FIG. In #250, i is set to 1. This i indicates the number of blur calculations, and is incremented by 1 each time a blur calculation is performed. CC in #252
D-integration is started, and in #254, a flag is checked to see if the main reference part has been determined. If the main reference portion has been determined, the main island blur calculation is performed in #256. As described above, this blurring calculation involves performing correlation/interpolation calculations between the reference part and the reference part to obtain the blurring amount, blurring speed, and YM/C. In #258, it is determined whether the determined amount of blur is within the detectable range. In this embodiment, if the blurred pixel amount Gx exceeds ±3.5 pixels, it is determined that detection is impossible and the data is invalidated. If it is within the detection range #2
At 60, the vibration speed is memorized. At this time, Y
The M/C value is also stored in memory. After the blur speed is memorized, the next reference portion is set based on the blur pixel amount Gx calculated in #262. In #264 and #266, it is determined whether the contrast of the set reference portion is greater than or equal to a predetermined value.
Then, it is checked whether the reference part is within a settable range. If any of these is NO, the process advances to #268 and the main block is reselected. This main block selection is
Select the block with the highest contrast within the main island. Main block selection in #268 is #264,2
This is not limited to the case where the answer is NO at #66, but also when the main reference portion has not been determined at #254, or when the amount of blurred pixels calculated at #258 is too large. In #270, it is determined whether a main block that satisfies the condition (contrast is equal to or greater than a predetermined value) in #268 has been selected. If the main block that meets the conditions is selected #2
Proceed to 72.
【0086】#262から266または#268から2
70で主基準部が設定されたなら#272でその画素デ
ータを基準画素データとしてメモリし、#274で主基
準部決定のフラグをセットする。逆に主基準部が決定し
なければ#276で主基準部決定のフラグをクリアする
。#262 to 266 or #268 to 2
If the main reference portion is set in step 70, the pixel data is stored as reference pixel data in #272, and a flag for determining the main reference portion is set in #274. Conversely, if the main reference part has not been determined, the main reference part determination flag is cleared in #276.
【0087】以上で主アイランドにおけるぶれ演算、及
び次回の主基準部の設定が終了する。次に副アイランド
におけるぶれ演算、及び副基準部の設定を行なう。[0087] This completes the blur calculation on the main island and the setting of the next main reference portion. Next, a blur calculation on the sub-island and setting of the sub-reference part are performed.
【0088】図16の#280では副アイランドが存在
するかを判別する。副アイランドが存在しない場合はぶ
れ演算も基準部設定も行なわず#306へ進む。副アイ
ランドが存在する場合、#282から302で副アイラ
ンドにおけるぶれ演算と、副基準部の設定を行なうが、
この動作は主アイランドの動作とまったく同様であるの
でここでは説明を省略する。At #280 in FIG. 16, it is determined whether a sub-island exists. If there is no sub-island, the process proceeds to #306 without performing any blurring calculation or reference section setting. If there is a sub-island, the blur calculation on the sub-island and the setting of the sub-reference part are performed in steps #282 to 302.
Since this operation is exactly the same as that of the main island, the explanation will be omitted here.
【0089】以上のようにして主・副アイランドにおけ
るぶれ演算及び基準部の設定が行なわれたなら、CCD
積分が終了次第#306においてそれぞれの画素データ
をダンプする。#306のダンプ終了後#308でiを
i+1にし、#310でi=jかどうかを判別する。j
は4または8で#202でセットしたものである。i=
jでなければ#252に進み再びぶれ演算に入る。その
後i=jになるまでぶれ演算を繰り返す。i=jであれ
ば図17の#320から最後のぶれ演算に入る。[0089] Once the blur calculation and reference section setting for the main and sub islands have been performed as described above, the CCD
Upon completion of the integration, each pixel data is dumped in #306. After the dump in #306 is completed, i is set to i+1 in #308, and it is determined whether i=j in #310. j
is 4 or 8, which was set in #202. i=
If it is not j, the process advances to #252 and blur calculation is started again. Thereafter, the blur calculation is repeated until i=j. If i=j, the final blur calculation starts from #320 in FIG.
【0090】#320では主基準部が決定しているかフ
ラグをチェックする。主基準部が決定していたなら#3
22でぶれ演算を行ない、その演算結果をチェックした
後ぶれ速度をメモリする。(#324,326)主基準
部が決定していない場合はぶれ演算を行なわなず、直接
#328へ進む。At #320, the flag is checked to see if the main reference portion has been determined. If the main reference part has been determined #3
At step 22, a blur calculation is performed, and after checking the result of the calculation, the blur speed is stored in memory. (#324, 326) If the main reference portion has not been determined, the blur calculation is not performed and the process directly proceeds to #328.
【0091】#328では副アイランドが存在するかチ
ェックする。副アイランドが存在する場合、#330で
副基準部が決定しているかフラグをチェックする。副基
準部が決定していた場合ぶれ演算を行ない、その演算結
果をチェック後ぶれ速度をメモリする。(#332〜3
36)副アイランド及び副基準部がない場合は直接#3
38へ進む。これで最後のぶれ演算が終了し、主アイラ
ンド及び副アイランドそれぞれのぶれ速度が4個または
8個ずつメモリされる。(副アイランドがない場合は主
アイランドのみ)以上説明したような動作によって4回
または8回のぶれ演算が行なわれる。In #328, it is checked whether a sub-island exists. If a sub-island exists, a flag is checked in #330 to see if the sub-reference part has been determined. If the sub-reference part has been determined, a blur calculation is performed, and after checking the calculation result, the blur speed is stored in memory. (#332~3
36) Direct #3 if there is no sub-island or sub-reference part
Proceed to 38. This completes the last blur calculation, and four or eight blur velocities for each of the main island and the sub island are stored in memory. (If there is no sub-island, then only the main island) The blur calculation is performed four or eight times by the operations described above.
【0092】次にこれらのデータの平均処理動作に入る
。#338では主アイランドにおけるぶれ速度データを
加算平均する。なおこの時前述のように、YM/Cをチ
ェックし、信頼性の低いデータは無効として加算平均に
は加えない。さらに有効なデータが3個に満たなかった
場合には主アイランドにおける平均ぶれ速度を無効とす
る。#338で主アイランドの平均ぶれ速度を算出した
後、#340で副アイランドが存在するかどうかを判別
する。副アイランドが存在する場合主アイランドと同様
の方法でぶれ速度データを加算平均する。副アイランド
が存在しない場合には副アイランドの平均ぶれ速度はな
しとなる。以上のようにして主・副アイランドそれぞれ
における平均ぶれ速度が求まると、#344でそれらの
重み付けをする。この重み付けについては既に説明済み
であり、主・副アイランドの平均ぶれ速度の大きさを比
較して最終的な出力ぶれ速度Boを出力する。以上でぶ
れ検出の1セットの終了である。Next, an average processing operation for these data is started. In #338, the blur speed data on the main island is averaged. At this time, as described above, YM/C is checked, and unreliable data is treated as invalid and not added to the averaging. Further, if the number of valid data is less than three, the average blur velocity on the main island is invalidated. After calculating the average blur speed of the main island in #338, it is determined in #340 whether or not a sub-island exists. If a sub-island exists, the blur speed data is averaged in the same way as for the main island. If there is no sub-island, the average blurring speed of the sub-island is zero. Once the average blur speeds for each of the main and sub islands are determined as described above, they are weighted in #344. This weighting has already been explained, and the magnitudes of the average blur speeds of the main and sub islands are compared to output the final output blur speed Bo. This is the end of one set of blur detection.
【0093】以上説明したように、本発明のぶれ検出装
置は多点測距可能なカメラにおいて主被写体が撮影画面
内のどの位置に存在するかを判別し、その位置に対応す
る撮像素子の撮像データに基づいて被写体のぶれを検出
するものである。このような検出方法により、主被写体
が撮影画面内のどの位置に存在している場合においても
的確にそのぶれを検出することができる。本発明のぶれ
検出装置によって検出されたぶれデータは、ぶれ警告や
表示を例とした様々なぶれに関する制御に用いることが
できる。以下にその応用例について説明する。As explained above, the blur detection device of the present invention determines the position of the main subject in the photographic screen in a camera capable of multi-point distance measurement, and detects the image of the image sensor corresponding to that position. This method detects subject blur based on data. By using such a detection method, it is possible to accurately detect the blur of the main subject no matter where the main subject is located within the photographic screen. The blur data detected by the blur detection device of the present invention can be used for various controls related to blur, such as blur warning and display. An example of its application will be explained below.
【0094】図18は動感インジケーターという表示装
置で、撮影された写真がどのような質感を持つか表示す
るものである。この表示は表示No.が上がるほど鮮明
で静止した写真が撮れ、逆に表示No.が下がるほど流
れた動感のある写真が撮れることを示す。なお本実施例
ではこの表示装置はファインダ内に設けるものとする。
表3は様々な条件における動感インジケーターの表示状
態を示したものである。一般に同じ被写体を撮影しても
、シャッタスピードが速いほど、また撮影レンズの焦点
距離が短いほど、シャープで鮮明な写真が撮れる。しか
しながら表3に示した実施例ではシャッタスピードや焦
点距離だけでなく、ぶれデータによっても表示を変えて
いる。FIG. 18 shows a display device called a dynamic indicator, which displays the texture of a photographed photograph. This display is display No. The higher the display number, the clearer and still the photo you can take; conversely, the higher the display number. This indicates that the lower the value, the more flowing and dynamic photos you can take. In this embodiment, this display device is provided within the viewfinder. Table 3 shows the display state of the dynamic indicator under various conditions. Generally speaking, even when photographing the same subject, the faster the shutter speed and the shorter the focal length of the photographic lens, the sharper and clearer the photograph will be. However, in the embodiment shown in Table 3, the display is changed not only depending on the shutter speed and focal length but also on blur data.
【0095】表3を参照しながら、具体的な数値を用い
て説明する。例えば撮影レンズの焦点距離が100mm
でシャッタスピードが1/125であった場合について
考える。このような条件において本発明のぶれ検出装置
によって求めた出力ぶれ速度Boが30mm/sであっ
た場合、動感インジケーターは表示No.2を表示する
。同じ焦点距離、シャッタスピードで、ぶれ速度Boが
10mm/sであった場合には動感インジケーターはN
o.3を表示し、さらにぶれ速度Boが1mm/sであ
ったらNo.4を表示する。[0095] Referring to Table 3, this will be explained using specific numerical values. For example, the focal length of the photographic lens is 100mm.
Let us consider the case where the shutter speed is 1/125. Under these conditions, if the output blur speed Bo determined by the blur detection device of the present invention is 30 mm/s, the dynamic indicator will display the display No. Display 2. At the same focal length and shutter speed, if the blur speed Bo is 10 mm/s, the dynamic indicator is N.
o. 3 is displayed, and if the shake speed Bo is 1 mm/s, No. Display 4.
【0096】表3に示した実施例では焦点距離が短く、
シャッタスピードが速く、ぶれ速度が小さいほど表示N
o.を上げるように制御している。以上説明したように
この応用例では撮影者はカメラのファインダを通して被
写体を捕らえた時点で撮影された写真(出来上がり写真
)の動感を想定することができる。In the embodiment shown in Table 3, the focal length is short;
The faster the shutter speed and the smaller the blur speed, the more display
o. It is controlled to raise the As explained above, in this application example, the photographer can imagine the dynamic feeling of the photograph (finished photograph) taken at the time when the subject is captured through the camera's finder.
【0097】[0097]
【表3】[Table 3]
【0098】次に別実施例として上記のようなぶれ検出
装置を利用した流し撮りモードについて説明する。流し
撮りとは動感描写における撮影技法の1つで、シャッタ
が開放されている間に、被写体の動きにあわせてカメラ
を移動する撮影方法である。撮影された写真は被写体が
静止し、バックが流れており、動感が描出される。さて
流し撮りモードとは上記のような撮影動作においてより
動感を描出することを目的とするものである。その概要
を説明すると、上記のようなぶれ検出装置を用いてぶれ
を検出し、追い掛けている主被写体のぶれ(カメラと主
被写体の相対的なぶれ)が小さければシャッタスピード
をより長くするよう補正し、主被写体のぶれが大きけれ
ばシャッタスピードを短くするというものである。この
ような制御により、写真撮影に慣れた上級者が流し撮り
を行なった場合にはシャッタスピードが長くなり、バッ
クの流れた動感あふれる写真が撮れる。逆に初心者が流
し撮りを行なった場合には、被写体自体がぶれてしまう
ことを防ぐことができる。Next, as another embodiment, a panning mode using the above-mentioned blur detection device will be described. Panning is one of the photographic techniques for depicting dynamic motion, and is a photographing method in which the camera is moved in accordance with the movement of the subject while the shutter is open. In the photographs taken, the subject is still and the background is flowing, creating a sense of movement. Now, the purpose of the panning mode is to create a more dynamic feeling in the above-mentioned shooting operation. To explain the outline, the camera shake is detected using the camera shake detection device mentioned above, and if the camera shake of the main subject being chased (relative shake between the camera and the main subject) is small, the shutter speed is corrected by increasing the shutter speed. However, if the main subject is significantly shaken, the shutter speed is shortened. With this kind of control, when an experienced photographer takes a panning shot, the shutter speed becomes longer, allowing him or her to take a picture with a moving background and a moving background. Conversely, when a beginner takes a panning shot, it is possible to prevent the subject itself from becoming blurred.
【0099】以下流し撮りモードにおける本発明のぶれ
検出装置の動作を説明する。なお通常撮影から流し撮り
モードへの切り換えは、図3に示したモード切り換え部
20によって行なう。さらに流し撮りモードでは図6で
示した制動判定は行なわず、すべてコンティニュアスA
Fを行なう。The operation of the blur detection device of the present invention in the panning mode will be described below. Note that switching from normal photography to panning mode is performed by the mode switching unit 20 shown in FIG. Furthermore, in panning mode, the braking judgment shown in Figure 6 is not performed, and all continuous A
Do F.
【0100】図19は流し撮りモードにおけるぶれ検出
のシーケンスを表した図である。通常撮影モードでは、
図4に示すようにあるぶれ検出から次のぶれ検出までに
0.5秒以上間隔をあけその間AF動作を繰り返してい
たが、流し撮りモードでは図19のようにAF動作とぶ
れ検出を1回ずつ交互に行ない、0.5秒の間隔はあけ
ない。これは流し撮り撮影では被写体が高速で移動して
いるため、多くのぶれデータを用いて被写体の動きをよ
り正確に捕らえようとするためである。このぶれ検出及
びAF動作も同様にS2オンでレリーズ動作に入るまで
繰り返される。FIG. 19 is a diagram showing a sequence of blur detection in panning mode. In normal shooting mode,
As shown in Figure 4, there was an interval of 0.5 seconds or more between one blur detection and the next, and the AF operation was repeated during that time, but in panning mode, the AF operation and blur detection were performed once as shown in Figure 19. Do this alternately, leaving no 0.5 second intervals. This is because in panning shooting, the subject is moving at high speed, so a lot of blur data is used to capture the subject's movement more accurately. This blur detection and AF operation are similarly repeated until S2 is turned on and the release operation begins.
【0101】図20は流し撮りモードにおけるぶれ検出
の動作順序を示したフローチャートである。図に示すよ
うに流し撮りモードにおいては第2アイランドを主アイ
ランドとし(#406)、副アイランドは選択しない。
その後第2アイランドのみでぶれ検出を行なう。これは
流し撮りでは高速で移動する被写体の動きを捕らえなく
てはいけないので、少しでも演算時間を短縮する必要が
あるためである。すなわちぶれ検出を行なうアイランド
を1つにすることで、その演算時間や撮像データのダン
プ時間は約半分になる。また選択するアイランドを第2
アイランドとしたのは、移動被写体を追い掛ける場合、
撮影者は被写体を中心に持ってくることが多いからであ
る。さらに流し撮りを行なう場合は車などの水平方向に
移動する被写体である場合がほとんどであり、主に水平
方向のぶれデータを必要とする。このようなことから流
し撮りモードにおいては第2アイランドのみでぶれ検出
を行なうものとする。FIG. 20 is a flowchart showing the operational sequence of blur detection in the panning mode. As shown in the figure, in the panning mode, the second island is set as the main island (#406), and no sub-island is selected. After that, blur detection is performed only on the second island. This is because in panning shots, it is necessary to capture the movement of a subject moving at high speed, so it is necessary to reduce the calculation time as much as possible. In other words, by reducing the number of islands for blur detection to one, the calculation time and the time to dump imaged data are approximately halved. Also select the second island.
The island was used when chasing a moving subject.
This is because the photographer often focuses on the subject. Furthermore, when performing panning shots, the subject is mostly moving horizontally, such as a car, and horizontal blur data is mainly required. For this reason, in the panning mode, blur detection is performed only on the second island.
【0102】アイランド選択以降の動作については、通
常撮影モードにおいて、副アイランドを選択せず主アイ
ランドのみでぶれ検出を行なう場合と同じ動作を行なう
のでここでは説明を省略する。The operations after the island selection are the same as those performed in the normal photographing mode when blur detection is performed only on the main island without selecting the sub-island, so the explanation will be omitted here.
【0103】以上のようなぶれ検出方法によってぶれデ
ータが求まると、このデータに基づき露出補正を行なう
。図21は本発明を適用したカメラの流し撮りモードに
おける露出プログラムの一例である。実線で示したのは
出力ぶれ速度Boが3mm/sのときのプログラム線図
である。このプログラム線図はぶれの大きさによって左
右にシフトする。具体的に説明すると、ぶれが大きいと
シャッタスピード高速側へ、ぶれ量が小さいと低速側へ
シフトする。その様子を示したのが破線で示したプログ
ラム線図である。ただし本実施例ではこのシフト範囲は
1/30から1/125までとし、Bo≦1.5mm/
sではシャッタスピード1/30、Bo≧6mm/sで
は1/125とする。上記のようにプログラム線図をシ
フトさせることにより、Ev値の等しい被写体に対して
もぶれの大きさに応じたシャッタスピードを優先的に決
定することができる。Once blur data is determined by the blur detection method described above, exposure compensation is performed based on this data. FIG. 21 is an example of an exposure program in panning mode of a camera to which the present invention is applied. The solid line is a program diagram when the output vibration speed Bo is 3 mm/s. This program diagram shifts left and right depending on the magnitude of the blur. Specifically, when the amount of blurring is large, the shutter speed is shifted to a high speed side, and when the amount of blurring is small, the shutter speed is shifted to a low speed side. This situation is shown in the program diagram indicated by broken lines. However, in this embodiment, this shift range is from 1/30 to 1/125, and Bo≦1.5 mm/
The shutter speed is set to 1/30 for s, and 1/125 for Bo≧6 mm/s. By shifting the program diagram as described above, it is possible to preferentially determine the shutter speed according to the magnitude of blur for subjects having the same Ev value.
【0104】上記のように露出を制御することにより、
写真撮影に慣れた上級者が流し撮りを行なった場合には
シャッタスピードが長くなり、バックの流れた動感あふ
れる写真が撮れる。逆に初心者が流し撮りを行なった場
合には、被写体自体がぶれてしまうことを防ぐことがで
きる。[0104] By controlling the exposure as described above,
If an experienced photographer takes a panning shot, the shutter speed will be longer, allowing him or her to take a moving photo with a flowing background. Conversely, when a beginner takes a panning shot, it is possible to prevent the subject itself from becoming blurred.
【0105】[0105]
【発明の効果】以上説明したように本発明のぶれ検出装
置は、複数の焦点検出用撮像素子と、それら複数の撮像
素子のうちいずれかの素子が有する撮像素子の撮像デー
タに基づいて被写体のぶれデータを演算するものにおい
て、撮影者自身がどの撮像素子を用いてぶれ検出を行な
うかを手動で選択できるようにしたものである。従って
、主被写体を撮影画面内のどの位置に配置しても、その
位置に対応する撮像素子を選択してぶれ検出を行なうこ
とができる。これにより撮影者が所望する自由な構図を
設定することが可能となる。As explained above, the blur detection device of the present invention has a plurality of focus detection image sensors and detects a subject based on the image data of the image sensor of any one of the plurality of image sensors. In a device that calculates blur data, the photographer can manually select which image sensor to use for blur detection. Therefore, no matter where the main subject is placed within the photographic screen, blur detection can be performed by selecting the image sensor corresponding to that position. This allows the photographer to freely set a desired composition.
【0106】さらに多点測距が可能でしかも撮影者がど
の撮像素子を用いてぶれ検出を行なうかを自由に手動選
択できるカメラにおいて、ぶれ検出を行なう撮像素子を
選択する手動選択手段が焦点検出に用いられる素子を選
択する選択手段も兼ねることにより、撮影者が主被写体
を撮像している撮像素子を選択することで、主被写体に
対してピントをあわせられると同時にそのぶれも的確に
検出することができる。Furthermore, in a camera that is capable of multi-point distance measurement and allows the photographer to freely manually select which image sensor to use for blur detection, the manual selection means for selecting the image sensor to perform blur detection is focus detection. By also serving as a selection means for selecting the element used for the camera, by selecting the image sensor that is capturing the image of the main subject, the photographer can focus on the main subject and at the same time accurately detect the camera shake. be able to.
【0107】さらに前記手動選択手段が流し撮りを行な
う際に流し撮りモードに切り換える切り換え手段であり
、その切り換えによって複数の撮像素子のうち所定の1
つを選択するぶれ検出装置では、ぶれ検出に用いる撮像
素子を1つにすることでぶれ演算等に要する時間を短縮
できる。Furthermore, the manual selection means is a switching means for switching to the panning mode when performing panning, and by the switching, a predetermined one of the plurality of image pickup devices is selected.
In a blur detection device that selects one image sensor, the time required for blur calculation etc. can be shortened by using only one image sensor for use in blur detection.
【図1】本発明に使用される焦点検出装置の原理図であ
る。FIG. 1 is a diagram showing the principle of a focus detection device used in the present invention.
【図2】(a)はカメラの視野ファインダにおける測距
範囲を示す図で、(b)はその測距範囲に対応するCC
Dラインセンサ群の配置図である。[Figure 2] (a) is a diagram showing the distance measurement range in the field of view finder of the camera, and (b) is a diagram showing the CC corresponding to the distance measurement range.
FIG. 3 is a layout diagram of a D-line sensor group.
【図3】本発明を適用したカメラのブロック図である。FIG. 3 is a block diagram of a camera to which the present invention is applied.
【図4】本発明のぶれ検出シーケンスを示す図である。FIG. 4 is a diagram showing a blur detection sequence of the present invention.
【図5】本発明を適用したカメラの動作順序を示すフロ
ーチャートである。FIG. 5 is a flowchart showing the operation order of the camera to which the present invention is applied.
【図6】本発明を適用したカメラの動作順序を示すフロ
ーチャートである。FIG. 6 is a flowchart showing the operation order of the camera to which the present invention is applied.
【図7】主被写体の位置の違いによるアイランド選択の
選択方法を示す図である。FIG. 7 is a diagram illustrating a method of island selection based on differences in the position of the main subject.
【図8】アイランド選択の動作手順を示すフローチャー
トである。FIG. 8 is a flowchart showing an operation procedure for island selection.
【図9】ブロック選択の選択方法を説明する説明図であ
る。FIG. 9 is an explanatory diagram illustrating a selection method for block selection.
【図10】ブロック選択の選択方法を説明する説明図で
ある。FIG. 10 is an explanatory diagram illustrating a selection method for block selection.
【図11】相関演算値の分布を示すグラフである。FIG. 11 is a graph showing the distribution of correlation calculation values.
【図12】補間演算に用いられるグラフである。FIG. 12 is a graph used for interpolation calculations.
【図13】4サイクルを1セットとしたぶれ検出の動作
順序を示す図である。FIG. 13 is a diagram illustrating the operational sequence of blur detection with one set of four cycles.
【図14】ぶれ検出の動作順序を示すフローチャートで
ある。FIG. 14 is a flowchart showing the operational sequence of blur detection.
【図15】ぶれ検出の動作順序を示すフローチャートで
ある。FIG. 15 is a flowchart showing the operational sequence of blur detection.
【図16】ぶれ検出の動作順序を示すフローチャートで
ある。FIG. 16 is a flowchart showing the operational sequence of blur detection.
【図17】ぶれ検出の動作順序を示すフローチャートで
ある。FIG. 17 is a flowchart showing the operational sequence of blur detection.
【図18】動感インジケーターの表示状態を示す図であ
る。FIG. 18 is a diagram showing a display state of a dynamic indicator.
【図19】流し撮りモードにおけるぶれ検出シーケンス
を示す図である。FIG. 19 is a diagram showing a blur detection sequence in panning mode.
【図20】流し撮りモードにおけるぶれ検出の動作順序
を示すフローチャートである。FIG. 20 is a flowchart showing the operational sequence of blur detection in panning mode.
【図21】流し撮りモードにおける露出プログラムを示
すグラフである。FIG. 21 is a graph showing an exposure program in panning mode.
6 撮像素子 10 マイクロコンピューター 11 AFセンサ 19 ぶれデータ出力部 21 手動アイランド選択部 6 Imaging device 10 Microcomputer 11 AF sensor 19 Shake data output section 21 Manual island selection section
Claims (3)
素子と、撮影者自身が前記複数の撮像素子のうちどの素
子を用いてぶれ検出を行なうかを手動で選択できる手動
選択手段と、その手動選択手段によって選択された撮像
素子の撮像データに基づいてカメラと被写体の相対的な
ぶれのデータを演算する演算手段とを備えたことを特徴
とするカメラのぶれ検出装置。1. At least two or more focus detection image sensors, a manual selection means that allows a photographer to manually select which element among the plurality of image sensors is used for blur detection, and What is claimed is: 1. A camera blur detection device, comprising: calculation means for calculating relative blur data between a camera and a subject based on image data of an image sensor selected by a selection means.
点検出用撮像素子のうちどの撮像素子を用いて焦点検出
を行なうかを選択する選択手段も兼ねることを特徴とす
る請求項1のカメラのぶれ検出装置。2. The camera according to claim 1, wherein the manual selection means also serves as selection means for selecting which of the plurality of focus detection image sensors is used for focus detection. Shake detection device.
う際に流し撮りモードに切り換える切り換え手段であり
、その切り換え手段が切り換えられることにより、複数
ある前記撮像素子のうち所定の1つを選択することを特
徴とする請求項1のカメラのぶれ検出装置。3. The manual selection means is a switching means for switching to a panning mode when performing panning, and when the switching means is switched, a predetermined one of the plurality of image pickup devices is selected. The camera shake detection device according to claim 1, characterized in that:
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3121315A JPH04349440A (en) | 1991-05-27 | 1991-05-27 | Blurring detecting device for camera |
US07/889,118 US5262820A (en) | 1991-05-27 | 1992-05-26 | Camera having a blur detecting device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3121315A JPH04349440A (en) | 1991-05-27 | 1991-05-27 | Blurring detecting device for camera |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH04349440A true JPH04349440A (en) | 1992-12-03 |
Family
ID=14808203
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP3121315A Pending JPH04349440A (en) | 1991-05-27 | 1991-05-27 | Blurring detecting device for camera |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH04349440A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001154225A (en) * | 1999-11-25 | 2001-06-08 | Canon Inc | Deflection detecting device and device with deflection detecting function |
JP2007240877A (en) * | 2006-03-08 | 2007-09-20 | Canon Inc | Imaging apparatus and control method therefor |
JP2010250156A (en) * | 2009-04-17 | 2010-11-04 | Nikon Corp | Electronic camera |
JP2011197690A (en) * | 2011-05-26 | 2011-10-06 | Canon Inc | Imaging device and control method therefor |
-
1991
- 1991-05-27 JP JP3121315A patent/JPH04349440A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001154225A (en) * | 1999-11-25 | 2001-06-08 | Canon Inc | Deflection detecting device and device with deflection detecting function |
JP4560159B2 (en) * | 1999-11-25 | 2010-10-13 | キヤノン株式会社 | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD |
JP2007240877A (en) * | 2006-03-08 | 2007-09-20 | Canon Inc | Imaging apparatus and control method therefor |
JP2010250156A (en) * | 2009-04-17 | 2010-11-04 | Nikon Corp | Electronic camera |
JP2011197690A (en) * | 2011-05-26 | 2011-10-06 | Canon Inc | Imaging device and control method therefor |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3823921B2 (en) | Imaging device | |
JP2004109690A (en) | Camera system and camera | |
JP2003029135A (en) | Camera, camera system and photographic lens device | |
JP2008152150A (en) | Imaging apparatus, its control method and program, and storage medium | |
JP6851854B2 (en) | Control method of image processing device, imaging device and image processing device | |
JP2005064699A (en) | Camera | |
JP2009159092A (en) | Imaging apparatus and control method thereof | |
JPH04349440A (en) | Blurring detecting device for camera | |
JPH11337814A (en) | Optical device | |
JPH03260638A (en) | Camera with electronic finder | |
JPH04349439A (en) | Blurring detecting device for camera | |
JP2012108281A (en) | Focus detector and imaging apparatus | |
JP6234094B2 (en) | Focus detection apparatus and imaging apparatus | |
JP3463516B2 (en) | Image stabilization camera | |
JP2973443B2 (en) | camera | |
JP3442409B2 (en) | camera | |
JP3127605B2 (en) | Camera with monitor | |
JPS6155620A (en) | Automatic focusing device | |
JPH0829674A (en) | Automatic area selection camera | |
JP4282404B2 (en) | camera | |
JPH07301742A (en) | Camera | |
JP7254555B2 (en) | IMAGING DEVICE AND METHOD OF CONTROLLING IMAGING DEVICE | |
JP5458530B2 (en) | camera | |
JP5347269B2 (en) | Imaging device | |
JP3421993B2 (en) | Camera with monitor |