JPH0587631A - Photometric device of camera - Google Patents
Photometric device of cameraInfo
- Publication number
- JPH0587631A JPH0587631A JP3083665A JP8366591A JPH0587631A JP H0587631 A JPH0587631 A JP H0587631A JP 3083665 A JP3083665 A JP 3083665A JP 8366591 A JP8366591 A JP 8366591A JP H0587631 A JPH0587631 A JP H0587631A
- Authority
- JP
- Japan
- Prior art keywords
- photometric
- value
- camera
- subject
- exposure value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Photometry And Measurement Of Optical Pulse Characteristics (AREA)
- Exposure Control For Cameras (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、撮影画面を複数に分割
して測光するカメラの測光装置に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a photometric device for a camera which divides a photographic screen into a plurality of parts for photometry.
【0002】[0002]
【従来の技術】従来、この種のカメラの測光装置とし
て、撮影画面を複数の受光素子で分割測光したのち、そ
れぞれ測光素子の出力を比較することにより、主要被写
体に比較的高い確率で露光値を合わせられるようにした
ものが知られている。例えば、分割された撮影画面の1
領域の最高輝度が高く、その他の領域との輝度差が大き
い場合には、太陽等を含むシーンであると見なして、高
輝度の部分を測光値から削除したり、低輝度の領域を重
視した測光を行うようにすることができる。2. Description of the Related Art Conventionally, as a photometric device for a camera of this type, the exposure value of a main subject is relatively high with a comparatively high probability by dividing photometry of a photographing screen with a plurality of light receiving elements and then comparing outputs of the respective photometric elements. It is known to be able to match. For example, one of the divided shooting screens
If the maximum brightness of the area is high and the brightness difference with other areas is large, it is considered that the scene includes the sun, etc., and the high brightness part is deleted from the photometric value, or the low brightness area is emphasized. It is possible to perform photometry.
【0003】また、輝度分布が特殊な被写体に対して適
正な露出値が得られるように、「受光素子の出力のう
ち、最大のものに重み付けしたものと、最小のものに重
み付けしたものと、画面位置に応じて重み付けしたもの
とを加算して輝度情報を算出したり、さらに、その重み
付け係数が、シーンに応じて定められるようにした露光
演算方式(特公平2−7010号)」が提案されてい
る。Further, in order to obtain an appropriate exposure value for a subject having a special brightness distribution, "the maximum output of the light receiving elements is weighted, and the minimum output is weighted. An exposure calculation method (Japanese Patent Publication No. 2-7010) is proposed in which brightness information is calculated by adding the weighted value depending on the screen position, and the weighting coefficient is determined according to the scene. Has been done.
【0004】更に、パターン認識能力の優れたものとし
て、ニューラルネットワークが知られているが、そのニ
ューラルネットワークに分割された測光出力を入力し、
そのネットワークの結合の重みをあらかじめ学習により
決定し、カメラに搭載された状態では結合の重みが固定
された状態で、このネットワークの出力を露光値とする
カメラの測光装置が提案されている(特開平2ー967
23)。このネットワークを適切に構築すれば、学習さ
れたパターンの被写体に対してはほぼ適正露光値が得ら
れるようになる。Further, although a neural network is known as one having excellent pattern recognition ability, the photometric output divided into the neural network is inputted,
A photometric device for a camera has been proposed in which the connection weight of the network is determined by learning in advance, and the output of this network is used as an exposure value while the connection weight is fixed in the state of being mounted on the camera. Kaihei 2-967
23). If this network is constructed appropriately, a proper exposure value can be obtained for a subject having a learned pattern.
【0005】[0005]
【発明が解決しようとする課題】しかし、前述した従来
の測光演算方式では、想定された撮影シーンに該当する
か否かの境界の被写体に対しては、わずかな画面の変化
により露光値が不安定になるという問題があった。However, in the above-described conventional photometric calculation method, the exposure value of the subject at the boundary of whether or not it corresponds to the assumed shooting scene is not sufficient due to a slight change in the screen. There was a problem of becoming stable.
【0006】また、多くの撮影シーンに適合させるため
には、それだけ多くのパターンに分類する必要が生じ、
最適な露光値の選択が複雑となるうえ、想定されていな
い撮影シーンに対しては全く予測ができず、適正な露光
値とは程遠い値になってしまう可能性があった。Further, in order to adapt to many shooting scenes, it becomes necessary to classify into many patterns,
The selection of the optimum exposure value becomes complicated, and it is impossible to predict an unexpected shooting scene at all, and there is a possibility that the exposure value will be far from an appropriate exposure value.
【0007】更に、撮影シーンに対して重み付けを行う
ネットワークは、適切に構築することにより予め想定さ
れた撮影シーンに対しては、ほぼ適正な露光値が得られ
るが、そのためには、ネットワークが大規模なものにな
ってしまい、カメラに搭載されているマイクロコンピュ
ータでは対応できないうえ、パターンの分類に必要なデ
ータも膨大な数が必要となってしまう。Further, by appropriately constructing a network for weighting shooting scenes, a proper exposure value can be obtained for a shooting scene that is assumed in advance. For that purpose, the network is large. The scale becomes so large that it cannot be handled by the microcomputer installed in the camera, and an enormous amount of data is required for pattern classification.
【0008】本発明の目的は、これらの課題を解決し、
撮影シーンの変化に対して滑らかな露光値を与えること
ができるとともに、露光結果の予想が可能であり、少な
い学習量で様々な被写体に対して最適な露光値を与える
ことができるカメラの測光装置を提供することである。The object of the present invention is to solve these problems,
A photometric device for a camera that can give a smooth exposure value to changes in shooting scenes, predict exposure results, and give optimum exposure values to various subjects with a small amount of learning. Is to provide.
【0009】[0009]
【課題を解決するための手段】前記課題を解決するため
に本発明のカメラの測光装置は、撮影画面を複数の測光
領域に分割して測光する測光用受光素子を備えたカメラ
の測光装置において、前記測光用受光素子の分割された
複数の測光領域からの出力により被写体の特徴を示す複
数の被写体情報を抽出する特徴抽出手段と、前記被写体
情報を予め定められた複数の重み係数に従って加重加算
演算を行い複数の出力を生成する第1の演算手段と、前
記被写体情報に従って前記第1の演算手段からの複数の
出力に対する適合度を算出する適合度算出手段と、前記
第1の演算手段の複数の出力を前記適合度算出手段で算
出した適合度に従って加重加算演算を行い露光制御信号
を生成する第2の演算手段とから構成してある。In order to solve the above problems, a camera photometric device of the present invention is a camera photometric device comprising a photometric light receiving element for dividing a photographic screen into a plurality of photometric regions for photometry. A feature extraction means for extracting a plurality of subject information indicating a feature of the subject by outputs from a plurality of divided photometric regions of the photometric light receiving element; and weighted addition of the subject information according to a plurality of predetermined weighting factors. A first arithmetic means for performing arithmetic operations to generate a plurality of outputs; a fitness degree calculating means for computing a fitness degree for the plurality of outputs from the first arithmetic means according to the subject information; and a first arithmetic means It comprises a second arithmetic means for performing a weighted addition operation on a plurality of outputs in accordance with the conformity calculated by the conformity calculating means to generate an exposure control signal.
【0010】[0010]
【作用】本発明によれば、分割測光領域の測光出力に重
み付けを行うとともに、その測光出力からいくつかの特
徴を抽出し、抽出した特徴から適合度を算定し、その適
合度によって、さらに結合の重み付けをして、露出値を
決定する。According to the present invention, the photometric output of the divided photometric area is weighted, some features are extracted from the photometric output, the degree of conformity is calculated from the extracted features, and the combination is further combined according to the degree of conformity. The exposure value is determined by weighting.
【0011】[0011]
【実施例】以下、図面などを参照して、実施例につき、
本発明を詳細に説明する。図1〜図4は、本発明による
カメラの測光装置の実施例を示した図であって、図1は
カメラ全体を示した概略図、図2は測光用受光素子を示
した平面図、図3は演算装置のネットワーク構造を示し
た概念図、図4は演算装置の動作を示した流れ図であ
る。EXAMPLES Examples will be described below with reference to the drawings.
The present invention will be described in detail. 1 to 4 are views showing an embodiment of a photometric device for a camera according to the present invention, FIG. 1 is a schematic view showing the entire camera, and FIG. 2 is a plan view showing a photometric light receiving element. 3 is a conceptual diagram showing the network structure of the arithmetic unit, and FIG. 4 is a flow chart showing the operation of the arithmetic unit.
【0012】この実施例の測光装置は、1眼レフカメラ
1に適用したものであり、図1に示すように、撮影レン
ズ2,クイックリターンミラー3,フォーカシングスク
リーン4,再結像レンズ6,測光用受光素子7,演算装
置8,シャッタ駆動装置9,絞り駆動装置10等から構
成されている。The photometric device of this embodiment is applied to a single-lens reflex camera 1, and as shown in FIG. 1, a photographing lens 2, a quick return mirror 3, a focusing screen 4, a re-imaging lens 6, a photometric device. The light receiving element 7, the arithmetic unit 8, the shutter drive unit 9, the diaphragm drive unit 10 and the like.
【0013】被写体からの光束は、撮影レンズ2を通り
クイックリターンミラー3で反射され、フォーカシング
スクリーン4に結像され観察される。フォーカシングス
クリーン4上に結像された被写体像は、再結像レンズ6
により測光用の受光素子7に再結像される。The light flux from the subject passes through the taking lens 2 and is reflected by the quick return mirror 3 to form an image on the focusing screen 4 for observation. The subject image formed on the focusing screen 4 is re-imaging lens 6
Is re-imaged on the light receiving element 7 for photometry.
【0014】受光素子7は、受光した光束を光電変換し
て測光出力とする素子であり、図2に示すように、撮影
画面は5分割されており、それぞれの測光出力(レベル
B1〜B5)は、演算装置8に接続されている。The light-receiving element 7 is an element for photoelectrically converting the received light beam into a photometric output, and as shown in FIG. 2, the photographing screen is divided into five, and the respective photometric outputs (levels B1 to B5). Are connected to the arithmetic unit 8.
【0015】演算装置8は、公知のマイクロコンピュー
タが使用されており、カメラ全体の制御とともに、受光
素子7からの測光出力に基づいて、後述する図4の流れ
図に従って、分割測光のパターンとその特徴を抽出した
値を組み合わせた露光値が演算される。演算装置8の出
力は、シャッタ駆動装置9および絞り駆動装置10に接
続されており、撮影時には、演算された露光値に基づい
て、シャッタ駆動装置9および絞り駆動装置10が制御
され、フィルム5に露光が行われる。A well-known microcomputer is used as the arithmetic unit 8, and the divided photometry pattern and its characteristics are controlled based on the photometric output from the light receiving element 7 according to the flow chart of FIG. The exposure value is calculated by combining the extracted values. The output of the arithmetic unit 8 is connected to a shutter drive unit 9 and an aperture drive unit 10. During shooting, the shutter drive unit 9 and the aperture drive unit 10 are controlled based on the calculated exposure value, and the film 5 is displayed. Exposure is performed.
【0016】次に、図3を参照して、演算装置8が有す
るネットワーク構造について説明する。演算装置8は、
入力層81,中間層82,出力層83の3階層から構成
されている。Next, referring to FIG. 3, the network structure of the arithmetic unit 8 will be described. The arithmetic unit 8 is
The input layer 81, the intermediate layer 82, and the output layer 83 are composed of three layers.
【0017】入力層81には、ネットワークへの入力で
あるレベルI1〜I6が含まれている。レベルI1は、
画面中央部の明るさを示し、測光出力レベルB1がその
まま入力されている。レベルI2は、画面上部の明るさ
を示し、測光出力レベルB2とレベルB3の平均値が入
力されている。レベルI3は、画面下部の明るさを示
し、測光出力レベルB4とレベルB5の平均値が入力さ
れている。レベルI4は、画面のハイライト部の明るさ
を示し、測光出力レベルB1〜B5の中の最大値が入力
されている。レベルI5は、画面のシャドー部の明るさ
を示し、測光出力レベルB1〜B5の中の最小値が入力
されている。レベルI6は、定数項であり、常に1が入
力されている。The input layer 81 includes levels I1 to I6 which are inputs to the network. Level I1 is
The brightness of the central portion of the screen is shown, and the photometric output level B1 is directly input. The level I2 indicates the brightness of the upper part of the screen, and the average value of the photometric output levels B2 and B3 is input. Level I3 indicates the brightness at the bottom of the screen, and the average value of the photometric output levels B4 and B5 is input. The level I4 indicates the brightness of the highlight portion of the screen, and the maximum value among the photometric output levels B1 to B5 is input. The level I5 indicates the brightness of the shadow portion of the screen, and the minimum value of the photometric output levels B1 to B5 is input. Level I6 is a constant term, and 1 is always input.
【0018】入力層81の入力値は、被写体の特徴を示
すように決められたものであるが、特にこれらの特徴に
限るものではなく、信号処理を行って、他の特徴を示す
値、例えば、前記入力値の2乗した値やそれ以上の高次
の値等を追加すれば、性能がより向上する。The input value of the input layer 81 is determined so as to show the characteristics of the subject, but is not limited to these characteristics in particular, and a value showing other characteristics, for example, by performing signal processing, is used. The performance is further improved by adding a squared value of the input value or a higher-order value higher than that.
【0019】抽出要素F1,抽出要素F2は、適合度演
算部84への入力値である。抽出要素F1は、測光出力
レベルB1〜B5の中の最大値であるレベルI4と同じ
値が入力されており、ここでは、この値を被写体の輝度
としている。抽出要素F2は、測光出力レベルB1〜B
5の最大輝度差が入力されている。The extraction elements F1 and F2 are input values to the fitness calculating section 84. The extraction element F1 receives the same value as the level I4, which is the maximum value among the photometric output levels B1 to B5, and here, this value is the brightness of the subject. The extraction element F2 has photometric output levels B1 to B
The maximum brightness difference of 5 is input.
【0020】中間層82には、6個のニューロンNj が
用意されており、レベルI1〜I6の各入力と、学習済
みの重み係数Wijで結合している。このとき、ニューロ
ンNj の出力は、次の式で表される。 Nj =ΣWijIi ( i:1・・・6 ,j:1・・・6 ) …(1) 式(1)で示すように、この実施例のニューロンNj
は、単純な1次の線形式であるので、異なる入力に対す
る出力は直線的に変化し、撮影者にとって予想と大きく
外れる出力となることがない。Six neurons Nj are prepared in the intermediate layer 82, and they are connected to the respective inputs of the levels I1 to I6 by the learned weight coefficient Wij. At this time, the output of the neuron Nj is expressed by the following equation. Nj = .SIGMA.WijIi (i: 1 ... 6, j: 1 ... 6) (1) As shown in equation (1), the neuron Nj of this embodiment is
Is a simple linear form, the output for different inputs changes linearly, and the output does not greatly deviate from what the photographer expected.
【0021】次に、これらのニューロンの出力Nj は、
適合度演算部84によって決定された適合度K1〜K6
により、次の式に従って加重加算平均され、出力層83
から制御値Oとして出力される。 O=(ΣKj Nj )/ΣKj (j:1・・・6) …(2)Next, the outputs Nj of these neurons are
Fitness K1 to K6 determined by the fitness calculator 84
According to the following equation, weighted arithmetic mean is performed, and the output layer 83
Is output as a control value O. O = (ΣKj Nj) / ΣKj (j: 1 ... 6) (2)
【0022】適合度K1 〜K6 の値は、それぞれ以下に
示す6個のルールに従って、いわゆるファジイ処理によ
って求められる。ルール1は、「被写体が暗く、かつ、
輝度差が小さいときは、ニューロンN1 を採用する」と
いうルールであり、ルール2は、「被写体が明るく、か
つ、輝度差が小さいときは、ニューロンN2 を採用す
る」というルールであり、ルール3は、「被写体がたい
へん明るく、かつ、輝度差が小さいときは、ニューロン
N3 を採用する」というルールであり、ルール4は、
「被写体が暗く、かつ、輝度差が大きいときは、ニュー
ロンN4 を採用する」というルールであり、ルール5
は、「被写体が明るく、かつ、輝度差が大きいときは、
ニューロンN5 を採用する」というルールであり、ルー
ル6は、「被写体がたいへん明るく、かつ、輝度差が大
きいときは、ニューロンN6 を採用する」というルール
である。The values of the goodnesses of fit K1 to K6 are obtained by so-called fuzzy processing according to the following six rules. Rule 1 is "the subject is dark and
The rule is that "the neuron N1 is adopted when the brightness difference is small", and the rule 2 is that "the neuron N2 is adopted when the subject is bright and the brightness difference is small", and the rule 3 is , "When the subject is very bright and the brightness difference is small, the neuron N3 is adopted", and the rule 4 is
The rule is "When the subject is dark and the brightness difference is large, the neuron N4 is adopted", and the rule 5
"If the subject is bright and the difference in brightness is large,
The rule 6 is "adopt a neuron N5" and the rule 6 is "adopt a neuron N6 when the subject is very bright and the brightness difference is large."
【0023】ところで、この実施例によるネットワーク
では、各ニューロンNj の機能を分化させるために、フ
ァジイ処理によって求めた各ニューロンの適合度Kj を
付加し、次の式で学習を行う。 Wnij=Woij+e (T−Nj )Ii Kj …式(3) ただし、e は1回の修正の大きさを決めるパラメータで
あり、正の非常に小さな値をとる。また、Tは目標値、
Woijは前回の重み係数、Wnijは新しい重み係数であ
る。By the way, in the network according to this embodiment, in order to differentiate the function of each neuron Nj, the fitness Kj of each neuron obtained by fuzzy processing is added, and learning is performed by the following equation. Wnij = Woij + e (T-Nj) IiKj (3) However, e is a parameter that determines the magnitude of one correction, and takes a very small positive value. Also, T is a target value,
Woij is the previous weighting factor, and Wnij is the new weighting factor.
【0024】この式(3)を用いて学習を行うことによ
り、各ニューロンNjは、相当するルール1〜6に適合
するデータで学習されることになる。例えば、ニューロ
ンN1は、図7における領域1に適合するデータを用い
て学習が行われ、学習後は領域1に最適な結合の重みが
得られる。By performing the learning using the equation (3), each neuron Nj is learned by the data that conforms to the corresponding rules 1 to 6. For example, the neuron N1 is trained using data that fits into the region 1 in FIG. 7, and after learning, the optimal connection weight is obtained for the region 1.
【0025】また、学習後の各重み係数Wnijの大きさ
を見れば、その領域1〜6で各入力が重視される度合が
わかり、入力に対する制御の予想がつく。例えば、ニュ
ーロンN1に対する重み係数Wi1の中で、重み係数W11
が最も大きい値であれば、入力I1つまり中央部の測光
値B1が最も重視されることがわかる。Further, by looking at the size of each weighting coefficient Wnij after learning, the degree to which each input is emphasized in the areas 1 to 6 can be known, and the control of the input can be predicted. For example, among the weighting factors Wi1 for the neuron N1, the weighting factor W11
Is the largest value, it can be seen that the input I1, that is, the photometric value B1 in the central portion is most important.
【0026】これらの重み係数Wijの学習では、通常は
様々な被写体を想定して採取したデータで行なうことに
なる。さらに、特定の被写体、例えばポートレート、風
景等の撮影対象別に学習した重み係数Wijを何組か用意
し、撮影者が被写体に応じて選択できるようにすること
もでき、これは重み係数Wijを何組かカメラ内に用意す
るか、または外部から別の重み係数Wijを入力できるよ
うにすればよい。The learning of these weighting factors Wij is usually carried out with data collected assuming various subjects. Furthermore, it is also possible to prepare some sets of weighting factors Wij that have been learned for each shooting subject such as a specific subject, for example, portrait, landscape, etc., so that the photographer can select them according to the subject. Several sets may be prepared in the camera, or another weighting factor Wij may be input from the outside.
【0027】次に、図4の流れ図に従って、演算装置8
の演算処理を中心にして、この実施例の動作を説明す
る。まず、ステップS1では、ADコンバータ等を通し
て、受光素子7からの測光値B1〜B5を取得する。Next, according to the flow chart of FIG.
The operation of this embodiment will be described with a focus on the arithmetic processing of. First, in step S1, the photometric values B1 to B5 from the light receiving element 7 are acquired through an AD converter or the like.
【0028】ステップS2では、ステップS1で取得し
た測光値B1〜B6より、次の式に基づいて、ネットワ
ークへの入力値のレベルI1〜I6を算出する。なお、
MAXは最大値、MINは最小値を示す関数である。 I1 =B1 …(4) I2 =(B2 +B3 )/2 …(5) I3 =(B4 +B5 )/2 …(6) I4 =MAX(B1 〜B5 ) …(7) I5 =MIN(B1 〜B5 ) …(8)In step S2, the levels I1 to I6 of the input values to the network are calculated from the photometric values B1 to B6 acquired in step S1 based on the following equation. In addition,
MAX is a function showing the maximum value, and MIN is a function showing the minimum value. I1 = B1 (4) I2 = (B2 + B3) / 2 (5) I3 = (B4 + B5) / 2 (6) I4 = MAX (B1 to B5) (7) I5 = MIN (B1 to B5) )… (8)
【0029】ステップS3では、ステップS2で算出し
たレベルより次の式に基づいて、抽出要素F1,F2を
算出する。 F1=I4 …(9) F2=I4−I5 …(10)In step S3, the extraction elements F1 and F2 are calculated from the level calculated in step S2 based on the following equation. F1 = I4 (9) F2 = I4-I5 (10)
【0030】ステップS4では、適合度K1〜K6を、
抽出要素F1,F2とメンバーシップ関数より、次の式
に基づいて算出する。 K1 =MIN(Bmax1(F1 ),dB1(F2 )) …(11) K2 =MIN(Bmax2(F1 ),dB1(F2 )) …(12) K3 =MIN(Bmax3(F1 ),dB1(F2 )) …(13) K4 =MIN(Bmax1(F1 ),dB2(F2 )) …(14) K5 =MIN(Bmax2(F1 ),dB2(F2 )) …(15) K6 =MIN(Bmax3(F1 ),dB2(F2 )) …(16)In step S4, the conformances K1 to K6 are
It is calculated from the extraction elements F1 and F2 and the membership function based on the following formula. K1 = MIN (Bmax1 (F1), dB1 (F2)) (11) K2 = MIN (Bmax2 (F1), dB1 (F2)) (12) K3 = MIN (Bmax3 (F1), dB1 (F2)) (13) K4 = MIN (Bmax1 (F1), dB2 (F2)) (14) K5 = MIN (Bmax2 (F1), dB2 (F2)) (15) K6 = MIN (Bmax3 (F1), dB2 (F2)) (16)
【0031】メンバーシップ関数は、図5に示すよう
に、関数Bmax1は「暗い」、関数Bmax2は「明
るい」、関数Bmax3は「たいへん明るい」という表
現の適合度を与える関数であり、図6に示すように、関
数dB1は「小さい」、関数dB2は「大きい」という
表現の適合度を表す関数とから成り立っている。つま
り、前述したルール1〜6において、被写体輝度(以下
Bmaxという)に対してF1という入力があるとき
「暗い」、「明るい」、「たいへん明るい」という表現
に対する適合度は、メンバーシップ関数Bmax1(F
1)、Bmax2(F1)、Bmax3(F1)で表す
ことになる。また、輝度差(以下dBという)に対して
F2という入力があるとき「小さい」、「大きい」とい
う表現に対する適合度は、メンバーシップ関数dB1
(F2)、dB2(F2)で表している。As shown in FIG. 5, the membership function is a function that gives the fitness of the expression that the function Bmax1 is "dark", the function Bmax2 is "bright", and the function Bmax3 is "very bright". As shown, the function dB1 is made up of "small" and the function dB2 is made up of a function showing the fitness of the expression "large". That is, in Rules 1 to 6 described above, when there is an input of F1 with respect to the subject brightness (hereinafter referred to as Bmax), the matching degree with respect to the expressions “dark”, “bright”, and “very bright” is the membership function Bmax1 ( F
1), Bmax2 (F1), and Bmax3 (F1). Also, when there is an input of F2 with respect to the luminance difference (hereinafter referred to as dB), the conformity to the expressions of "small" and "large" is the membership function dB1.
(F2) and dB2 (F2).
【0032】これらのメンバーシップ関数は、演算装置
8のマイクロコンピュータのメモリ上に、各入力値に対
する適合値を、テーブルとして記憶したり、複数の直線
の式を組み合せてプログラム上で実現されるようになっ
ている。These membership functions are stored in the memory of the microcomputer of the arithmetic unit 8 as compatible values for each input value as a table, or are realized on a program by combining a plurality of straight line expressions. It has become.
【0033】次に、ステップS6では、レベルI1〜I
6と、学習済みの結合の重み係数Wijより、前述の式
(1)に基づいて、ニューロンN1〜N6を算出する。
ここで、図7を参照して、Bmax−dB座標上での中
間層82のニューロンNj が適合するようすを説明す
る。各々の番号(1〜6)が、中間層82でのニューロ
ンNj の番号に相当し、点線で表されている領域の境界
は、はっきりしたものではなく、境界付近では隣接する
中間層82のニューロンの出力N1〜N6の中間的な値
をとることになり、Bmax(F1)やdB(F2)の
変化に対して出力の変動は滑らかなものとなる。Next, in step S6, the levels I1 to I
6 and the learned connection weighting coefficient Wij, the neurons N1 to N6 are calculated based on the above-mentioned equation (1).
Here, with reference to FIG. 7, description will be given of how the neurons Nj of the intermediate layer 82 on the Bmax-dB coordinate are adapted. Each number (1 to 6) corresponds to the number of the neuron Nj in the intermediate layer 82, and the boundary of the region indicated by the dotted line is not clear, and the neurons of the adjacent intermediate layer 82 are near the boundary. Since it takes an intermediate value of the outputs N1 to N6, the output changes smoothly with respect to changes in Bmax (F1) and dB (F2).
【0034】最後に、ステップS7では、適合度K1〜
K6とニューロンN1〜N6より、前述の式(2)に従
って、制御値Oを算出する。つまり、ステップS4で演
算したルール1〜6の適合度K1 〜K6 を、図3に示し
た中間層82と出力層83の結合の重みKj となる演算
要素とし、加重加算平均した結果が制御値Oとなり、目
的の露光値が得られる。Finally, in step S7, the goodness of fit K1.
From K6 and the neurons N1 to N6, the control value O is calculated according to the above-mentioned equation (2). That is, the goodnesses of fit K1 to K6 of the rules 1 to 6 calculated in step S4 are used as the calculation elements that become the weight Kj of the coupling between the intermediate layer 82 and the output layer 83 shown in FIG. 3, and the result of weighted addition averaging is the control value. It becomes O, and the target exposure value is obtained.
【0035】次に、具体的に各ニューロンの適合度K1
〜K6の求め方を図8,図9を用いて説明する。図8
は、被写体輝度としてF1という入力があった場合を示
し、このとき「暗い」という表現に対する適合度Bma
x1(F1)は、0.3、「明るい」という表現に対す
る適合度Bmax2(F1)は0.7、「たいへん明る
い」という表現に対する適合度Bmax3(F1)は0
になる。Next, specifically, the fitness K1 of each neuron
How to obtain K6 will be described with reference to FIGS. Figure 8
Indicates the case where F1 is input as the subject brightness, and at this time, the matching degree Bma for the expression “dark”
x1 (F1) is 0.3, the fitness Bmax2 (F1) for the expression "bright" is 0.7, and the fitness Bmax3 (F1) for the expression "very bright" is 0.
become.
【0036】図9は、輝度差としてF2という入力があ
った場合を示し、このとき「小さい」という表現に対す
る適合度dB1(F2)は0.9、「大きい」という表
現に対する適合度dB2(F2)は0.1となる。FIG. 9 shows the case where the luminance difference F2 is input. At this time, the goodness of fit dB1 (F2) for the expression "small" is 0.9, and the goodness of fit dB2 (F2 for the expression "large". ) Becomes 0.1.
【0037】従って、F1,F2という入力があった場
合のルール1〜ルール6の適合度K1〜K6は、図4の
ステップS4において以下のようになる。 K1=MIN(0.3,0.9)=0.3 K2=MIN(0.7,0.9)=0.7 K3=MIN( 0,0.9)=0 K4=MIN(0.3,0.1)=0.1 K5=MIN(0.7,0.1)=0.1 K6=MIN( 0,0.1)=0 これらK1〜K6を用いて、図4のステップS7におい
て制御値Oを得る。Therefore, the suitability K1 to K6 of the rules 1 to 6 when the inputs F1 and F2 are input are as follows in step S4 of FIG. K1 = MIN (0.3,0.9) = 0.3 K2 = MIN (0.7,0.9) = 0.7 K3 = MIN (0,0.9) = 0 K4 = MIN (0. 3, 0.1) = 0.1 K5 = MIN (0.7,0.1) = 0.1 K6 = MIN (0,0.1) = 0 Using these K1 to K6, the steps of FIG. The control value O is obtained in S7.
【0038】以上説明した実施例に限定されず、種々の
変形や変更ができ、それらも本発明の範囲内である。例
えば、この実施例では、ニューロンNj の適合度K1〜
K6の決定には、すべての入力に対してのファジイ処理
をする方法を用いたが、演算装置8のCPUの演算時間
の短縮化やプログラム容量に制約がある場合には、適合
度Kの値が1か0で中間的な値をとらない処理、つまり
ニューロンNj の中から図9で示す領域に適合するもの
を1個だけ選択するシステムでもよい。このようにすれ
ば、領域の境界付近での滑らかさは少し粗なものなるも
のの、境界の数は、従来のシステムに較べて遙かに少な
いので、精度は従来より高く、前述のような境界問題は
生じにくく、しかも、選択されたニューロンの演算だけ
すればよいので演算速度が速くなる。The present invention is not limited to the embodiments described above, and various modifications and changes can be made, which are also within the scope of the present invention. For example, in this embodiment, the fitness K1 of the neuron Nj is
The method of performing fuzzy processing on all inputs was used to determine K6. However, if the calculation time of the CPU of the arithmetic unit 8 is shortened or the program capacity is restricted, the value of the fitness K is calculated. Alternatively, the system may be one in which is 1 or 0 and does not take an intermediate value, that is, only one neuron Nj that fits the area shown in FIG. 9 is selected. In this way, although the smoothness near the boundary of the region becomes a little rough, the number of boundaries is much smaller than that of the conventional system, so the accuracy is higher than that of the conventional system, and the boundary The problem is unlikely to occur, and the calculation speed is increased because only the calculation of the selected neuron is required.
【0039】また、この実施例では、ルールの数(ニュ
ーロンNの数)が6個の場合について説明したが、この
数に限定される必要はなく、ルールの数が多いほうが性
能が向上する。これは、要求される精度と搭載されるC
PU等の容量に応じて選択すればよい。In this embodiment, the case where the number of rules (the number of neurons N) is 6 has been described, but the number of rules is not limited to this number, and the performance increases as the number of rules increases. This is the required accuracy and the installed C
It may be selected according to the capacity of PU or the like.
【0040】なお、適合度を演算する場合に、小さい方
の値をとるようにしたが、両者の積を演算するようにし
てもよい。Although the smaller value is taken when calculating the goodness of fit, the product of both may be calculated.
【0041】[0041]
【発明の効果】以上説明したように、本発明によれば、
抽出した特徴に基づいて、適合度を求めてさらに重み付
けをするので、想定された撮影シーンの境界となるよう
な被写体に対しては、滑らかな露光値が得られる。As described above, according to the present invention,
Since the degree of conformity is calculated and further weighted based on the extracted characteristics, a smooth exposure value can be obtained for a subject that is a boundary of an assumed shooting scene.
【0042】また、ネットワーク構造を線型にするとと
もに、各ニューロンの機能を明確にすることにより、出
力の予想が可能であるので、多くの被写体パターンを選
択せずに、わずかな測光上の撮影シーンの変化にも、よ
り適切な露光値を与え、少ない学習量で様々な被写体に
対して予想が可能な最適な露光値を与えることができ
る。Further, since the output can be predicted by making the network structure linear and clarifying the function of each neuron, it is possible to select a few photometric shooting scenes without selecting many subject patterns. It is possible to give a more appropriate exposure value to the change of, and to give an optimal exposure value that can be predicted for various subjects with a small learning amount.
【0043】更に、演算装置が小規模でかつ単純であ
り、従来のカメラに搭載されているマイクロコンピュー
タで演算処理ができ、製品化が容易となる。Further, the arithmetic unit is small and simple, and the arithmetic processing can be performed by the microcomputer installed in the conventional camera, which facilitates the commercialization.
【図1】図1は、本発明によるカメラの測光装置の実施
例を適用したカメラ全体を示した概略図である。FIG. 1 is a schematic view showing an entire camera to which an embodiment of a photometric device for a camera according to the present invention is applied.
【図2】図2は、本発明によるカメラの測光装置の実施
例に使用されている測光用受光素子を示した平面図であ
る。FIG. 2 is a plan view showing a photometric light receiving element used in an embodiment of a photometric device for a camera according to the present invention.
【図3】図3は、本発明によるカメラの測光装置の実施
例の演算装置に含まれるネットワーク構造を示した概念
図である。FIG. 3 is a conceptual diagram showing a network structure included in an arithmetic unit of an embodiment of a photometric device for a camera according to the present invention.
【図4】図4は、本発明によるカメラの測光装置の実施
例の演算装置の動作を説明する流れ図である。FIG. 4 is a flowchart for explaining the operation of the arithmetic unit of the embodiment of the photometric device for the camera according to the present invention.
【図5】図5は、本発明によるカメラの測光装置の実施
例における被写体輝度に対する適合度を表すメンバーシ
ップ関数を示す図である。FIG. 5 is a diagram showing a membership function representing a degree of conformity with respect to subject brightness in an embodiment of a photometric device for a camera according to the present invention.
【図6】図6は、本発明によるカメラの測光装置の実施
例における輝度差に対する適合度を表すメンバーシップ
関数を示す図である。FIG. 6 is a diagram showing a membership function representing a degree of conformance with respect to a luminance difference in an embodiment of a photometric device for a camera according to the present invention.
【図7】図7は、輝度差と被写体輝度の適合度の組合せ
を示す線図である。FIG. 7 is a diagram showing a combination of a luminance difference and a matching degree of subject luminance.
【図8】図8は、本発明のカメラの測光装置の実施例に
おける「暗い」という表現に対する適合度を決定する状
態を示す線図である。FIG. 8 is a diagram showing a state in which the degree of suitability for the expression “dark” is determined in the embodiment of the photometric device for a camera of the present invention.
【図9】図9は、本発明のカメラの測光装置の実施例に
おける「小さい」という表現に対する適合度を決定する
状態を示す線図である。FIG. 9 is a diagram showing a state in which the degree of conformity to the expression “small” is determined in the embodiment of the photometric device for a camera of the present invention.
1 1眼レフカメラ 2 撮影レンズ 3 クイックリターンミラー 4 フォーカシングスクリーン 5 フィルム 6 再結像レンズ 7 測光用受光素子 8 演算装置 9 シヤッタ駆動装置 10 絞り駆動装置 1 1-lens reflex camera 2 Shooting lens 3 Quick return mirror 4 Focusing screen 5 Film 6 Re-imaging lens 7 Light receiving element for photometry 8 Arithmetic device 9 Shutter drive device 10 Aperture drive device
Claims (1)
光する測光用受光素子を備えたカメラの測光装置におい
て、 前記測光用受光素子の分割された複数の測光領域からの
出力により被写体の特徴を示す複数の被写体情報を抽出
する特徴抽出手段と、 前記被写体情報を予め定められた複数の重み係数に従っ
て加重加算演算し、複数の出力を生成する第1の演算手
段と、 前記被写体情報に従って前記第1の演算手段からの複数
の出力に対する適合度を算出する適合度算出手段と、 前記第1の演算手段の複数の出力を前記適合度算出手段
で算出した適合度に従って加重加算演算し、露光制御信
号を生成する第2の演算手段とから構成したことを特徴
とするカメラの測光装置。1. A photometric device for a camera, comprising a photometric light receiving element for dividing a photographic screen into a plurality of photometric areas for photometry, wherein the output of the photometric light receiving element from the plurality of divided photometric areas is used to measure the subject. Feature extraction means for extracting a plurality of subject information indicating features, first computing means for performing a weighted addition operation on the subject information according to a plurality of predetermined weighting factors, and generating a plurality of outputs, according to the subject information A fitness calculation means for computing a fitness for a plurality of outputs from the first computing means, and a weighted addition operation for a plurality of outputs of the first computing means according to the fitness calculated by the fitness computing means, A photometric device for a camera, comprising a second arithmetic means for generating an exposure control signal.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP08366591A JP3203670B2 (en) | 1991-03-22 | 1991-03-22 | Camera photometer |
US07/852,975 US5266984A (en) | 1991-03-22 | 1992-03-17 | Exposure calculating apparatus for camera |
EP92302435A EP0505205A1 (en) | 1991-03-22 | 1992-03-20 | Exposure calculating apparatus for camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP08366591A JP3203670B2 (en) | 1991-03-22 | 1991-03-22 | Camera photometer |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0587631A true JPH0587631A (en) | 1993-04-06 |
JP3203670B2 JP3203670B2 (en) | 2001-08-27 |
Family
ID=13808761
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP08366591A Expired - Lifetime JP3203670B2 (en) | 1991-03-22 | 1991-03-22 | Camera photometer |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3203670B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5497229A (en) * | 1993-05-28 | 1996-03-05 | Asahi Kogaku Kogyo Kabushiki Kaisha | Photometering apparatus having a split light receiving device |
JP2010175654A (en) * | 2009-01-27 | 2010-08-12 | Sony Corp | Imaging apparatus and imaging method |
-
1991
- 1991-03-22 JP JP08366591A patent/JP3203670B2/en not_active Expired - Lifetime
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5497229A (en) * | 1993-05-28 | 1996-03-05 | Asahi Kogaku Kogyo Kabushiki Kaisha | Photometering apparatus having a split light receiving device |
JP2010175654A (en) * | 2009-01-27 | 2010-08-12 | Sony Corp | Imaging apparatus and imaging method |
US8279300B2 (en) | 2009-01-27 | 2012-10-02 | Sony Corporation | Imaging device and imaging method |
Also Published As
Publication number | Publication date |
---|---|
JP3203670B2 (en) | 2001-08-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US4912495A (en) | Light measuring device | |
US9137450B2 (en) | Image sensing apparatus, exposure control method and recording medium | |
KR20130031574A (en) | Image processing method and image processing apparatus | |
JP5092612B2 (en) | Color imaging device | |
US4395099A (en) | Scene brightness measuring system | |
JPS6356965B2 (en) | ||
JP5092565B2 (en) | Imaging apparatus, image processing apparatus, and program | |
US5111232A (en) | Camera having fuzzy inference function | |
US4951082A (en) | Three-dimensional multi-pattern photo-metering apparatus | |
JP2006301779A (en) | Image processing system, image processing method, and image processing program | |
US5266984A (en) | Exposure calculating apparatus for camera | |
JP2021033163A (en) | Imaging device and control method of the same | |
JP3170722B2 (en) | Exposure calculation device | |
JP3203670B2 (en) | Camera photometer | |
JP3097201B2 (en) | Exposure calculation device | |
US20230073357A1 (en) | Information processing apparatus, machine learning model, information processing method, and storage medium | |
JP5023874B2 (en) | Color imaging device | |
JP4539276B2 (en) | Camera photometric device and camera | |
JP2793816B2 (en) | Camera with learning function | |
JPH11202378A (en) | Exposure controller and control method for the same | |
US6445886B1 (en) | Photometry device of a camera | |
JP2612956B2 (en) | Method for determining exposure amount of copying machine | |
JP2898711B2 (en) | Exposure control device | |
JPH06129906A (en) | Light-measuring device for camera | |
JPH1155564A (en) | Automatic exposure controller |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100629 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110629 Year of fee payment: 10 |
|
EXPY | Cancellation because of completion of term | ||
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110629 Year of fee payment: 10 |